mercredi 30 avril 2008

Adobe abandonne GoLive

Adobe a annoncé qu'il cessait, à dater du 28 avril, le développement et la vente de GoLive, son outil de création de contenus dynamiques pour le Web

L'éditeur continuera néanmoins à en assurer le support auprès de ses utilisateurs au moyen de tutoriaux en ligne. Le logiciel avait vu le jour sous le nom de CyberStudio, produit vedette d'un éditeur allemand qui s'appelait GoLive, racheté en 1999 par Adobe. Cet outil Wysiwyg (what you see is what you get, le développeur visualise sa page telle qu'elle sera réellement affichée) a connu neuf versions majeures, la dernière, GoLive 9, ayant été livrée en 2007.

Fin 2005, le rachat de Macromedia a permis à Adobe de récupérer de nombreux produits dont Dreamweaver, un autre logiciel de développement de sites Web. A sa sortie, « GoLive a fourni aux professionnels de la création graphique un outil leur permettant d'aborder l'évolution vers le Web, rappelle Devin Fernandez, chef de produit GoLive chez Adobe. Ces utilisateurs sont maintenant des professionnels du Web, leurs besoins se sont complexifiés et Dreamweaver est mieux adapté à leur demande. »

Selon lui, même après la sortie de GoLive 9, les utilisateurs continuaient à se tourner vers Dreamweaver, principalement parce que ce dernier supportait des technologies comme Ajax et les contenus dynamiques.

Adobe propose aux clients enregistrés de GoLive d'évoluer vers Dreamweaver pour 199 dollars.

Source : http://micro.lemondeinformatique.fr/actualites/lire-adobe-abandonne-golive-2113.html

Xerox invente le papier effaçable et réimprimable

Après la souris et l'interface graphique dans les années 70, les laboratoires de recherche de Xerox viennent d'inventer le papier effaçable et réimprimable

En effet, même si on a pu penser il y a bien longtemps que l'informatique réduirait la consommation de papier imprimé, c'est bien l'inverse qui s'est produit. La plupart d'entre nous impriment leurs courriels, des pages de sites Web, et de lourds rapports de plusieurs dizaines de pages... Alors, plutôt que de laisser les forêts de la planète finir dans nos corbeilles, les chercheurs de Xerox ont décidé de réagir. Ils ont donc travaillé à un type de papier sur lequel le texte imprimé s'efface tout seul dans les 24 heures et peut être réutilisé jusqu'à 100 fois d'affilée.

Attention, votre impression s'autoeffacera dans les 24 heures

Le secret de ce papier tient dans des molécules codées qui créent une impression une fois exposée à une lumière ultraviolette émise par une fine barre installée dans l'imprimante. La molécule se réajuste toute seule dans les 24 heures qui suivent et reprend sa forme d'origine laissant de nouveau la page totalement vierge. Pour obtenir une page blanche sans attendre 24 heures, il suffit de chauffer la feuille et on obtient instantanément le même effet.

Pour l'instant, la technique ne fonctionne que pour le noir et blanc et Xerox préconise d'ailleurs de réserver ce type d'impression à du travail quotidien. Mieux vaut revenir à l'encre classique pour des documents de haute qualité. Enfin, malheureusement, le laboratoire n'a encore aucune idée de la date à laquelle l'imprimante et le papier pourraient être disponibles. En attendant, il ne reste plus qu'à réfréner nos envies intempestives d'imprimer...

Source : http://www.lemondeinformatique.fr/actualites/lire-xerox-invente-le-papier-effacable-et-reimprimable-25969.html

Suspense... Microsoft repousse la sortie de Windows XP SP3

Coup de théâtre : alors que sa sortie était prévue, annoncée pour ce 29 avril, le pack SP3 pose des problème de compatibilité...

Ce 29 avril tourne au... poisson d'avril ! Le géant de Redmond vient de faire savoir qu'en raison "de problèmes d'incompatibilité", la mise à disposition du "service-pack 3' de Windows XP était retardée.

La mise à jour était censée être activable, téléchargeable officiellement via Windows Update, ce mardi 29 avril.

Les problèmes d'incompatibilité rencontrés concerneraient des applications "point de vente" auprès des petits et moyens revendeurs... Les points d'incompatibilité ont été repérés ces derniers jours entre l'application Dynamics Retail Management System (RMS) et à la fois Windows XP SP3 et Windows Vista Service Pack 1.

Du coup, en toute dernière heure, Microsoft a pris la décision, sage et louable, de repousser la date de mise à disposition.

Selon IDG News, le géant du logiciel a précisé qu'il était en train de mettre en place des filtres afin d'empêcher l'activation de Windows Update qui devait apporter à la fois les service-packs de Windows XP et de Vista aux systèmes supportant Dynamics RMS.

Une fois que ces fonctions de filtrage seront opérationnelles, Microsoft planifie de livrer XP SP3 sur Windows Update et sur son site Web 'Download Center' pour un déploiement auprès des utilisateurs qui ne disposent pas de Dynamics RMS.

A cette heure, Microsoft n'a pas encore pu préciser combien de temps cela prendra pour activer ces filtres Dynamics RMS.

Source : http://www.silicon.fr/fr/news/2008/04/30/suspense____microsoft_repousse_la_sortie_de_windows_xp_sp3

mardi 29 avril 2008

Dell et HP distribueront Windows XP après le 30 juin

Si Microsoft a confirmé que, sauf exceptions, la commercialisation de Windows XP cessera après le 30 juin prochain, Dell et HP annoncent en revanche à leurs clients qu'ils pourront continuer à acheter des machines pré-équipées de « l'antique » OS après la date limite

Nulle astuce derrière les propositions des deux constructeurs qui se contentent simplement de profiter d'une possibilité offerte par Microsoft : le droit de « downgrade », ou rétrogradation. En pratique, l'éditeur autorise tous les acquéreurs d'une version professionnelle ou intégrale de Vista à utiliser la version n-1 de l'OS, en l'occurrence, Windows XP.

De fait, les consommateurs achetant une machine s'acquitteront bel et bien d'une licence Windows Vista mais pourront stipuler au constructeur qu'ils souhaitent trouver XP sur leur PC. Ils recevront, en plus de leur commande, le DVD d'installation de Vista.

L'opération est intéressante à double titre pour le groupe de Redmond : elle lui permet, d'un côté, de satisfaire ses consommateurs, souvent frustrés par l'arrêt de la commercialisation de XP et qui n'hésitent pas à le faire savoir ; de l'autre, Microsoft enregistre une vente de Vista pour chaque machine vendue, quel que soit l'OS choisi par le client.

Au-delà du 30 juin 2008, les constructeurs internationaux n'auront plus le droit de pré-installer XP sur les machines qu'ils vendent - sauf en recourant au droit de downgrade - un privilège qui sera alors réservé aux assembleurs locaux. Ces derniers bénéficieront d'un sursis jusqu'au 30 janvier 2009. Enfin, les constructeurs de PC ultraportables à bas coût pourront installer XP sur leurs machines jusqu'au 30 juin 2010.

Source : http://micro.lemondeinformatique.fr/actualites/lire-dell-et-hp-distribueront-windows-xp-apres-le-30-juin-2109.html

Les douaniers américains autorisés à copier les disques durs des visiteurs

Une cour d'appel américaine vient de confirmer le droit des douaniers américains à fouiller le disque dur des portables des voyageurs

Les cadres des entreprises étrangères n'ont qu'à bien se tenir.

Les douanes américaines viennent d'obtenir le droit de fouiller les fichiers stockés sur l'ordinateur portable d'un passager entrant sur le sol des Etats-Unis. L'histoire commence en 2005. A l'aéroport de Los Angeles, les douaniers ont demandé à un citoyen américain de retour des Philippines, de faire démarrer son portable. Une opération courante dans les aéroports. Mais les douaniers ont alors découvert que le PC de leur concitoyen contenait des photos pédophiles et l'ont très logiquement arrêté sur le champ.

Mais l'affaire n'en est pas restée là. L'individu a en effet porté plainte au motif que la fouille ne se fondait sur aucun soupçon a priori. Et après avoir eu gain de cause en première instance, il vient de perdre en appel. Les juges ont en effet assimilé le portable à un simple contenant comme le sont valises, sacs et autres portefeuilles. Or, ceux-ci peuvent être fouillés selon le bon vouloir des douaniers.

Une atteinte flagrante aux libertés individuelles

Une telle jurisprudence pourraient avoir des conséquences plutôt fâcheuses. Un disque dur est encore plus fiable qu'une mémoire humaine et garde une trace de tous les faits et gestes personnels et professionnels de son propriétaire. L'Electronic Frontier Foundation (EFF) et l'Asian Law Caucus (ALC), deux associations américaines de défense des libertés individuelles avaient déjà déposé plainte. Elles contestent la légalité de copie arbitraire des annuaires contenus dans les téléphones portables et du contenu des disques durs de passagers.

Mais cette possibilité offerte aux fonctionnaires américains de consulter les informations contenues sur les portables devrait aussi faire réfléchir les cadres de grandes sociétés étrangères. Ils devraient songer à protéger étroitement les données confidentielles et vitales pour leurs entreprises qu'ils ne manquent pas de transporter avec eux.

[NdR : Tout fout le camp, à commencer par les libertés individuelles !]

Source : http://www.lemondeinformatique.fr/actualites/lire-les-douaniers-americains-autorises-a-copier-les-disques-durs-des-visiteurs-25958.html

lundi 28 avril 2008

Un MacBook Air plaqué or !

Computer Choppers nous offre une magnifique adaptation du MacBook Air d'Apple, avec une coque entièrement plaquée d'or 24 carats. Superbe et élitiste


La compagnie américaine Computer Choppers a créé un mod de très haut de gamme autour du MacBook Air. Les mods (Case modification) sont une spécialité du Tuning PC, qui vise à modifier le châssis d'un produit de consommation courante.

La société offre ici un MacBook Air plaqué d'or à 24 carats, qui est distribué pour la modique somme de 5.000 dollars. Pour 3.000 dollars complémentaires, le logo placé à l'extérieur de la machine sera serti de pierres précieuses.


Le modèle utilisé pour cette adaptation audacieuse (et onéreuse) est un classique MacBook Air pourvu d'un processeur bicœur cadencé à 1,6 GHz, de 2 Go de mémoire et d'un disque dur de 80 Go, une machine originellement disponible pour 1.799 dollars. Belle marge en perspective.

Computer Choppers est spécialisé dans l'adaptation de produits électroniques (boîtiers d'ordinateurs, portables, lecteurs MP3, consoles de jeux, télévisions LCD/Plasma…), qu'elle transforme de multiples façons : plaquages (or, platine, cuivre, chrome, aluminium, nickel), peinture et logos en pierres précieuses.

Pour ses offres les plus luxueuses, elle s'appuie essentiellement sur les produits Apple, synonymes d'excellence pour nombre de consommateurs. Les iPhones, iPod, iMac et MacBook Pro sont ainsi également disponibles avec des coques similaires à celle proposée pour le MacBook Air… à des prix toujours aussi impressionnants.

[NdR : Mon cher père Noël, j'ai été bien sage cette année, pense à mes petits souliers ;-)]

Source : http://www.silicon.fr/fr/news/2008/04/25/un_macbook_air_plaque_or__

Antivirus : AVG renouvelle son offre gratuite

La mouture gratuite de l'antivirus AVG passe en version 8.0. Le produit est simple d'usage et pourvu d'une interface intuitive

L'offre gratuite, pour un usage personnel et non commercial, de l'antivirus tchèque AVG est maintenant disponible en version 8.0, sur ce site. Elle fonctionne sous Windows 2000, XP et Vista (en moutures 32 bits ou 64 bits). À l'usage, le produit est plutôt rapide et son interface réussie et peu intrusive.

L'application comprend un antivirus et un antispyware. La protection des emails est assurée par la présence de modules dédiés à Outlook et The Bat!. Pour les autres gestionnaires de courrier électronique le logiciel fait également office de passerelle générique, filtrant ainsi tous les messages (entrants et sortants). Classique.

Le programme intègre également un système permettant de protéger l'ordinateur lorsque vous surfez sur Internet. Ce dernier est compatible avec Internet Explorer et Firefox. Une partie de ce module protège l'ordinateur lors du chargement des pages. Elle n'est malheureusement pas activée dans la version gratuite du logiciel.

L'autre partie est cependant fonctionnelle : lorsque vous effectuez une recherche avec Google, Yahoo ou MSN, AVG insère dans la page de résultat un petit symbole qui indique si les sites présentés sont potentiellement dangereux ou pas. C'est une excellente idée.


La version gratuite d'AVG n'est aujourd'hui disponible qu'en anglais et en japonais. La compagnie nous informe toutefois que des traductions sont en cours pour le français, l'espagnol et l'italien.

Source : http://www.silicon.fr/fr/news/2008/04/25/antivirus___avg_renouvelle_son_offre_gratuite

VLVC, l'outil de vidéoconférence libre de l'Epitech

VLVC est un logiciel de vidéoconférence 'open source', basé sur le célèbre VLC media player. Il est puissant… et prometteur

Si le lecteur multimédia VLC est issu du travail des étudiants de l'École Centrale de Paris, nous devons VLVC (VideoLan VideoConference) à ceux de l'Epitech. VLVC est un outil de vidéoconférence open source complet.

Il offre plusieurs modes de fonctionnement :


  • salle de discussion : tous les participants peuvent intervenir quand ils le souhaitent ;

  • conférence : seul l'administrateur peut prendre la parole ;

  • amphithéâtre : l'administrateur peut laisser la parole à un autre participant ;

  • réunion : l'administrateur peut laisser la parole à - simultanément - un ou plusieurs participants.

Le logiciel est disponible sous Windows et Linux (Debian et Ubuntu). Il sera adapté à Mac OS X dans le futur. Il offre une large gamme de formats de compression vidéo, comprenant le H.264.
VLVC dessert lui-même les données aux autres participants. Une copie du programme peut toutefois être lancée dans un mode « serveur dédié », et servir ainsi de point de ralliement aux autres membres d'une conférence.


La dernière version de VLVC date du 17 janvier 2008 ; elle est fondée sur le code source de VLC 0.8.6d. On pourrait se demander comment un logiciel de vidéoconférence peut être basé sur un outil de lecture multimédia? Il ne faut pas oublier que VLC est capable de lire mais aussi de transcoder et de diffuser des flux audio et vidéo. Dans ce contexte, VLVC est l'évolution logique de ce programme.

Source : http://www.silicon.fr/fr/news/2008/04/27/vlvc__l_outil_de_videoconference_libre_de_l_epitech

Trimestriels 2008 : Microsoft en repli

Résultats T1 2008
Chiffre d'affaires : 14,45 Md$ (+0,3%)
Bénéfice net : 4,39 Md$ (-10,9%)


A la veille de l'expiration de son ultimatum posé à Yahoo concernant son OPA hostile, Microsoft reçoit deux avertissements. Non seulement les bénéfices nets du géant de Redmond sont en chute libre (-10,9%), mais les ventes de Vista sont aussi très décevantes. Et c'est sans compter les gaffes de Bill Gates. L'ancien PDG aurait en effet déclaré lors d'une conférence à Miami que la sortie de Windows 7 (successeur de Vista) serait programmée pour 2009, soit un an avant la date prévue. Une affirmation que Microsoft s'est empressé de tempérer, en réaffirmant que la sortie de Seven n'interviendrait pas avant 2010.

Pour Vista, il reste urgent d'attendre

Microsoft s'enorgueillit d'avoir vendu 140 millions de licences de Vista. Toutefois, rien ne garantit que toutes ces licences soient effectivement activées pour faire tourner Vista dans les entreprises. Cet échec de Vista dans le monde professionnel n'est qu'une demi surprise pour nos lecteurs, qui ont estimé que la dernière version de l'OS n'avait pas tenu ses promesses. Beaucoup de sociétés ont choisi de suivre les conseils du cabinet d'études Forrester, et d'attendre les mises à jour, voire de rester sur XP.

Microsoft ne semble pas dans une période particulièrement faste. Il pourrait bien ne pas non plus arriver à ses fins dans sa tentative d'OPA sur Yahoo. Un échec potentiel que Steve Ballmer chercher à minimiser. Hier encore, l'actuel PDG de Microsoft faisait mine d'ignorer l'obstination de Yahoo, et déclarait que la société « irait de l'avant », avec ou sans Yahoo.

Source : http://www.lemondeinformatique.fr/actualites/lire-trimestriels-2008-microsoft-en-repli-25950.html

vendredi 25 avril 2008

Europe : Firefox à la lisière des 30% de parts de marché

En un an, la part de visites du navigateur a gagné 4,5 points, selon XiTi


Après une légère baisse enregistrée en octobre 2007, et une stabilisation en janvier 2008, Firefox connaît une nouvelle progression en février et mars 2008 en Europe, selon le dernier baromètre de XiTi. Rappelons que ce dernier se base sur la part de visites de plus de 116.000 sites Web.

Ainsi, cette part de visites a augmenté de 4,5 points entre mars 2007 et mars 2008 pour s'établir à 28,8%. En décembre dernier, elle était de 28% et de 23% en janvier 2007. A noter, pendant le week-end, la part de visites moyenne de Firefox dépasse les 30% en Europe.

Entre février et mars 2008, la part de visites de Mozilla Firefox progresse dans 70% des 32 pays européens étudiés, observe l'institut d'études. C’est l’Andorre qui affiche la plus forte progression en points : de 22,7% en février à 24,8% en mars 2008 (+2,1 points), suivie par la Hongrie (+1,2 point), le Luxembourg (+1,1 point) et la Finlande (+1 point). Ce pays conserve d'ailleurs toujours la première place européenne dans l'utilisation du panda roux avec une part de 45,9%. Suivent la Pologne (44%) puis la Slovénie (43,7%).

En France, la part d'utilisation de Firefox atteint 26,8% contre 25,8% en décembre 2007. Malgré cette progression, l’utilisation du navigateur demeure inférieure à la moyenne européenne.

Au niveau mondial, l'Océanie reste le premier utilisateur de Firefox avec une part de 31,2%, devant l'Europe, l'Amérique du Nord (21,7%), l'Amérique du Sud (21,3%), l'Afrique (17,9%) et l'Asie (17,2%).

La croissance de Firefox impacte une nouvelle fois la famille Internet Explorer de Microsoft dont la part de visites passe de 67,5% en octobre 2007 à 65% en mars dernier. La baisse est sensible mais la marge reste élevée ! Mais l'arrivée très prochaine de Firefox 3 (la bêta 5 vient juste de sortir) pourrait accélérer cette tendance.

Selon XiTi, Safari d'Apple entame également la domination d'IE : en six mois, sa part de visites a progressé de 0,5 point à 2,3%. Quant à la part d'Opera, elle reste stable à 3,3%.

Source : http://www.silicon.fr/fr/news/2008/04/24/europe___firefox_a_la_lisiere_des_30__de_parts_de_marche

Ubuntu, roi des Linux - Linux, roi de l'embarqué

À ma droite, le plus utilisé des systèmes d'exploitation dans le milieu industriel. À ma gauche, la plus médiatisée des distributions Linux

Le site Open Source Census recense les installations de logiciels open source. Concernant les distributions Linux, l'Ubuntu se taille une part de choix, avec 48% de parts de marché, devant la Debian à 13%, la SUSE Linux à 9%, La Fedora Core à 8% et la Gentoo Linux à 7%. Les États-Unis représentent 34% des participants, loin devant le Canada (8%) et le Royaume-Uni ou l'Allemagne (tous deux à 5%).

Il convient cependant de noter que ce recensement ne concerne actuellement que 827 machines, ce qui réduit d'autant la fiabilité de ces chiffres. Nous savons par exemple que la France est plus favorable à Linux qu'un pays tel le Canada, fait qui ne transparaît pas ici. C'est néanmoins un magnifique coup de publicité pour le site Open Source Census, tout comme pour l'Ubuntu, dont la version 8.04 LTS arrive (comme par hasard) aujourd'hui.

Beaucoup plus sérieux, le rapport annuel 2008 de VDC concernant les logiciels utilisés dans les systèmes embarqués, fait apparaître que les systèmes d'exploitation open source (Linux, BSD, eCos, etc.) sont utilisés dans 23% des projets. Cette part passera prochainement à 26%. Si nous regardons la part individuelle de chaque OS (open source ou non), c'est Linux le plus utilisé, avec 18% des parts de marché du secteur de l'embarqué.

Les avantages qui ont su convaincre les ingénieurs sont en tout premier lieu le coût de la licence (nul ou faible, selon les distributions Linux), l'accès au code source, la similarité avec les systèmes Unix (bien connus des développeurs) et la large gamme de logiciels disponibles.

Source : http://www.silicon.fr/fr/news/2008/04/24/ubuntu__roi_des_linux___linux__roi_de_l_embarque

Google insuffle 5,625 millions de dollars dans le logiciel libre

C'est la somme que devra verser la compagnie à ses étudiants et aux organismes de tutelle si les projets du GSoC 2008 sont menés à bien

Si le Google Summer of Code 2007 (GSoC) avait rassemblé 900 développeurs, la session 2008 en compte 1.125. Un record pour la compagnie, qui doit maintenant signer un chèque de 562.500 dollars.

Notez que si tous les projets sont menés à terme, l'enveloppe totale sera de 5,625 millions de dollars (4.500 dollars pour chaque étudiant, le reste étant versé aux organismes de tutelle). C'est un effort sans précédent dans le monde open source car, rappelons le, le GSoC ne finance que des projets de ce type.

177 organisations se partageront ainsi plus de 259 années-homme de développement, le tout payé intégralement par Google. Les projets sont trop nombreux pour que nous les citions ici. Voici toutefois quelques exemples de travaux qui toucheront le domaine des logiciels grand public :
  • L'import OOXML d'AbiWord sera amélioré ;
  • Le rendu du codec Dirac sera accéléré par les GPU ;
  • Le bloc note Tomboy (sous Gnome) pourra enregistrer des notes vocales ;
  • Inkscape reconnaitra les fontes SVG ;
  • L'interface de NetSurf (un navigateur Internet ultra léger) sera améliorée ;
  • Le rendu des fichiers H.264 sera accéléré sous VLC ;
  • Le WebKit supportera les WebForms 2.0.
  • etc.
Bien évidemment, certains de ces projets ne seront pas menés à leur terme : c'est cependant une condition requise si l'étudiant souhaite toucher la totalité des 4.500 dollars qui lui sont promis.

L'Android Developer Challenge (ADC) est une autre initiative destinée aux programmeurs. Elle prend la forme de deux concours, pourvus chacun de 5 millions de dollars de prix (un est en cours, l'autre sera lancé au second semestre). Le but est ici de créer des applications en Java pour la plate-forme mobile Android de Google (sous Linux). Les applications n'ont toutefois pas a être sous licence open source. 1.788 logiciels ont été proposés pour la première session de l'ADC.

Source : http://www.silicon.fr/fr/news/2008/04/24/google_insuffle_5_625_millions_de_dollars_dans_le_logiciel_libre

Le plan 2008-2012 de l'Inria vise l'interaction avec d'autres disciplines

L'Inria présente son plan pour les cinq prochaines années

L'institut de recherche expose sa vision désormais plus systémique et interdisciplinaire du développement des TIC. Et il détaille sa propre feuille de route.

L'Inria (Institut national de la recherche en informatique et automatique) a présenté aujourd'hui son quatrième plan quinquennal stratégique. Ce plan 2008-2012 sert à la fois à présenter la vision que l'Institut porte sur le développement de sa discipline mais aussi sa feuille de route. « Attention, prévient Michel Cosnard, président du conseil d'administration de l'Inria, c'est en toute humilité que nous nous prêtons à cet exercice. Nous ne prétendons pas lire l'avenir des TIC dans une boule de cristal. En revanche, la préparation du plan est un travail sérieux, de longue haleine, mené sur toute la durée de 2006 et 2007. »

Plus une seule expérimentation dans aucune discipline (sécurité, environnement, médecine, etc.) n'est réalisée sans expérimentation par la modélisation ou la simulation. « Les TIC sont devenues un instrument universel de la recherche, confirme Malik Ghallab, délégué général à la recherche et au transfert pour l'innovation. Pour cette raison, notre plan stratégique se décline autour des mathématiques appliquées aux TIC mais aussi d'autres disciplines. » Le plan préconise ainsi une implication plus forte de la recherche dans les phénomènes liés à la santé ou à la biologie par exemple. Il vise également une approche plus systémique de la recherche permettant d'étudier des phénomènes qui s'étendent du nanométrique au kilométrique, voire au-delà.

Modéliser, programmer, communiquer et interagir

Le plan 2008-2012 se donne sept priorités. Elles se déclinent d'abord en quatre axes liés au coeur de métier de l'Inria :
  • la modélisation (géométrie, phénomènes aléatoires, etc.) ;
  • la programmation (méthodes formelles) ;
  • la communication (programmation distribuée sur un grand nombre de processeurs), et
  • l'interaction (avec l'utilisateur, le citoyen, le scientifique, l'ingénieur, etc.).
A ces quatre axes s'ajoutent trois défis que sont l'ingénierie numérique, la science numérique et la médecine numérique.

A l'occasion de cette présentation des objectifs de l'Inria, trois responsables scientifiques de projets de recherche ont raconté leur travaux

De la parallélisation des logiciels jusqu'à la modélisation du cerveau

Olivier Temam a ainsi décrit Alchemy (Architecture languages and compilers to harness the end of Moore's law). Ce dernier étudie entre autre les questions de parallélisation du code dans les programmes qui s'exécutent sur des puces multi-coeurs. Ils sont le moyen le plus efficace que les fondeurs aient trouvé pour contourner la loi de Moore (doublement du nombre de transistors sur un processeur tous les dix huit à vingt-quatre mois) et ses conséquences (augmentation de la puissance, mais aussi des problèmes de surchauffe et de court-circuit). Mais pour qu'une application tire parti complètement d'un multi-coeur, elle doit être parallélisée.

Serge Abiteboul s'occupe, lui, de l'intégration de données et de connaissances distribuées sur le Web. Ses travaux cherchent à décrire de nouveaux outils pour mieux se retrouver dans la masse d'informations non structurées qui envahit la Toile. Il développe des logiciels qui permettront de passer d'un Web HTML à un environnement plus structuré avec des métadonnées par exemple. Le système saura extraire les connaissances du texte.

Enfin, avec son projet Odyssée, Olivier Faugeras s'attaque à un morceau de taille : le cerveau. Pour commencer, il démythifie : « Non, le cerveau ne fonctionne pas comme un ordinateur ! » Il est bien plus complexe. Et la plus grande difficulté à laquelle se heurtent les travaux pour le modéliser et le simuler est justement la collecte des données le concernant. « C'est une 'terra incognita' dont nous connaissons à peine 1% du fonctionnement », rappelle Olivier Faugeras. La modélisation d'un seul neurone isolé reste un casse-tête. « Encore aujourd'hui, nous utilisons des modèles de fonctionnement de l'axone de calamar géant décrit dans les années 70. » Pour ces travaux, l'Inria se rapproche ainsi forcément de laboratoires de médecine, de biologie, etc. Odyssée illustre parfaitement l'importance actuelle de l'interdisciplinarité dans la recherche en TIC.

Source : http://www.lemondeinformatique.fr/actualites/lire-le-plan-2008-2012-de-l-inria-vise-l-interaction-avec-d-autres-disciplines-25945.html

Les mashups d'entreprise vedettes de la Web 2.0 Expo

Les applications composites ont le vent en poupe

Les éditeurs se sont donné le mot pour mettre en avant les mashups - et leurs solutions d'entreprise - lors de la conférence organisée par O'Reilly à San Francisco.

La conférence d'O'Reilly consacrée au Web 2.0, qui se déroule en ce moment à San Francisco, tourne cette année essentiellement autour des mashups d'entreprise. Un concept défendu ardemment tant par les éditeurs spécialisés tels Kapow, Nexaweb ou Jackbe, que par les ténors de l'architecture logicielle, comme IBM, Tibco ou Oracle.

Pour reprendre une définition communément admise, les mashups (également écrits mash-up) sont des applications composites légères, éventuellement mises au point par des non-informaticiens, combinant des sources de données et/ou des services applicatifs différents afin de fournir un service à valeur ajoutée.

Pour la nouvelle version de son site, actuellement en bêta, ViaMichelin a ainsi réalisé un mashup en combinant ses propres services de calcul d'itinéraire et d'information trafic au service de représentation cartographique de Microsoft Virtual Earth. Positionner une information touristique sur une carte est en effet bien plus pratique pour l'utilisateur.

Plus de 700 API de mashups identifiées

De même, Information Builders propose dorénavant un mashup lié cette fois au service cartographique de Google, « pour développer rapidement des applications composites dotées d'indications géographiques et ne nécessitant aucune formation ou développement spécifique ».

John Musser, qui maintient le catalogue en ligne de mashups ProgrammableWeb.com, est venu expliquer le concept sur la scène de la conférence Web 2.0. Il dit avoir ajouté à son catalogue 120 interfaces de programmation pour les trois premiers mois de l'année, ce qui porte le total d'API pour les mashups à plus de 700 (au 24 avril 2008, le total est de 732 API pour 2977 mashups). Pour lui, les entreprises ont quelque 18 à 24 mois de retard sur les particuliers dans l'utilisation de cette technologie.

Aucune notion de qualité de service pour les mashups

De fait, les entreprises ont montré des réticences face à une technologie qui recourt aux protocoles les plus simples du Web (XML, RSS, Atom.) et qui ne répond donc pas aux normes habituelles du développement d'applications transactionnelles (intégrité, sécurité, disponibilité.). Le plus souvent, les services libres d'accès ne sont assortis d'aucune garantie en termes de qualité de service ni d'aucun moyen de supervision.

Multiplication des solutions professionnelles de mashups

Les barrières sont cependant en train de tomber, pour deux raisons. D'une part, les mashups mis en place rendent le plus souvent un service décorrélé de la notion de transaction, et peuvent donc être gérés de façon plus légère (pas trop non plus : un utilisateur mécontent du service ne reviendra pas ou ne se transformera pas en acheteur). D'autre part, les offres professionnelles se structurent. Au début du mois, IBM lançait son Mashup Center et WebSphere sMash comme une extension naturelle de son offre d'infrastructure SOA (Architecture orientée services). Twinsoft annonce opportunément aujourd'hui le lancement d'une nouvelle version de son Convertigo Enterprise Mashup Server, qui permet d'exposer des services à partir de l'existant, et de les combiner en applications composites.

Présent à la conférence O'Reilly, Jackbe a présenté la version 2.0 de Presto, dont le rôle est de convertir des mashups en « mashlets », des composants à utiliser - comme les « portlets » - dans des portails, que ce soit sur PC ou sur mobile. Et Serena a de son côté présenté son projet de place de marché pour les mashups, Mashup Exchange.

A noter tout de même, d'après une étude Forrester sur le marché du Web 2.0 publiée juste avant la conférence, le business des mashups devrait représenter nettement moins que celui des réseaux sociaux.

Source : http://www.lemondeinformatique.fr/actualites/lire-les-mashups-d-entreprise-en-vedettes-de-la-web-20-expo-25943.html

jeudi 24 avril 2008

Sun voudrait un Java 100% libre

Sun aimerait voir sa plateforme Java davantage utilisée dans le monde Linux et même packagée avec la plupart des grandes distributions

Pour ce faire, il s'attèle à « nettoyer » le code pour de Java pour qu'il devienne entièrement Open source. Selon Sun, il ne resterait que 4% à passer vers une licence GPL, comprenant principalement des libraires de cryptage, des librairies graphiques, le moteur sonore et certains composants SNMP.

En attendant, la société travaille avec les principaux distributeurs Linux (Fedora, OpenSuse et Ubuntu) afin de livrer une mise à jour de son OpenJDK, la plateforme opensource de Java, pour les principales distributions de l'OS. « Nous espérons voir prochainement du mouvement dans les distributions Linux, peut-être dès JavaOne (NDLR : la conférence JavaOne aura lieu à San Francisco du 6 au 9 mai 2008), espère Rich Sands, responsable du développement marketing chez Sun. Nous essayons d'emmener Java vers des endroits où il ne s'est jamais introduit. En l'absence de version 100% Open Source, certains développeurs Linux ont préféré bâtir leurs application avec du C, du C++ ou du PHP. »

Source : http://www.lemondeinformatique.fr/actualites/lire-sun-voudrait-un-java-100-libre-25932.html
Disponible en version de test, Live Mesh permet de relier de multiples ordinateurs sur un même réseau privé de partage de fichiers

Le concept est prometteur, les possibilités nombreuses mais Live Mesh n'est accessible pour l'instant que sous la forme d'une démonstration technologique (uniquement par les résidents américains). Ce service permet d'interconnecter différents PC, qui pourront partager leurs données. Ray Ozzie, chief software architect chez Microsoft, avait évoqué ce concept lors de la MIX08. Aujourd'hui, c'est Laurent Ellerbach, responsable relation développeurs chez Microsoft, qui nous présente ce produit.

Lors d'une première connexion, l'utilisateur dispose du module Live Desktop, qui offre 5 Go d'espace de stockage et se montre accessible en toutes circonstances. Une fois vos différents ordinateurs associés à un compte Live Mesh, ils pourront partager des données entre eux. Dans un sens, ce service est équivalent au partage de fichiers de Windows, mais avec un accès possible même lorsque les PC ne se trouvent pas sur le même réseau local.

À tout moment, un ordinateur peut connaître l'état des autres machines du réseau (en ligne ou hors ligne) et visualiser les documents qui y sont présents (en fonction des droits d'accès appliqués). Un système d'information permet d'être tenu au courant des modifications apportées au contenu des machines enregistrées sur un compte Live Mesh. Il est également possible de partager des documents et dossiers avec d'autres utilisateurs du service.

Un service ouvert à tous les OS (ou presque)

Seuls les PC sous Windows XP et Vista peuvent s'enregistrer dans Live Mesh, car l'accès au réseau nécessite l'installation d'une application spécifique. Microsoft promet toutefois que cette application sera disponible prochainement pour les terminaux sous Windows Mobile et les ordinateurs fonctionnant sous Mac OS X.

En mode connecté, une interface web permet cependant d'accéder à la totalité de Live Mesh, et ceci depuis un simple navigateur Internet. Téléchargements (dans les deux sens), visualisation des évènements et du contenu de chaque PC connecté au réseau sont alors possibles. Le mode connecté se montre - en principe - compatible avec les navigateurs les plus courants, quelque soit le système d'exploitation utilisé.

Un kit de développement complet

Un kit de développement sera fourni par la compagnie dans les semaines à venir. Il permettra aux programmeurs de créer des applications qui pourront synchroniser leurs données vers les postes connectés au réseau Live Mesh. L'accès au flux d'information sera aussi possible, ce qui permettra de générer des messages d'alerte à partir d'une application tierce.

Live Mesh ne se limitera toutefois pas au partage de données. C'est bien plus qu'un simple service de partage de documents ; il s'agit d'une plate-forme, aux spécifications ouvertes et aux possibilités étendues.

Une dès premières applications « évoluées » de cette plate-forme permet de prendre la main sur un PC… à distance (elle est présentée à la fin de cet article de Amit Mital). Rien de nouveau à priori, si ce n'est que cette fonctionnalité est disponible directement via l'interface de Live Mesh. C'est un bon exemple de communication directe entre deux ordinateurs. Nous pouvons imaginer d'autres usages à cette plate-forme : elle pourrait par exemple servir de socle pour la diffusion d'applications.

Concernant le mode de financement de ce service, Laurent Ellerbach est clair : « aujourd'hui, le modèle économique reste encore à définir. Nous venons tout juste de présenter une version de démonstration de Live Mesh. De nombreux mois nous séparent encore de sa mise en circulation ».

Source : http://www.silicon.fr/fr/news/2008/04/23/avec_live_mesh__microsoft_rassemble_tous_vos_ordinateurs

mercredi 23 avril 2008

Microsoft s'offre une légitimité en matière de sécurité

La firme de Redmond présente son rapport sur la sécurité pour la période de juillet à décembre 2007. Bilan des courses, si les adwares sont toujours très présents, les solutions de l’éditeur seraient de moins en moins vulnérables…



L'éditeur de logiciels se penche de plus en plus sur les problématiques de sécurité. Bien qu'il existe des sociétés spécialisées dans ce secteur, le géant américain estime malgré tout avoir son mot à dire.

Au final, cette initiative pourrait être positive pour l'image de l'éditeur, car Microsoft s’est souvent fait épingler sur des problèmes de sécurité. Ces chiffres sont néanmoins à prendre avec des pincettes.

Microsoft justifie cette expertise par une présence mondiale hégémonique et un retour d'expérience des utilisateurs très important. Interrogé, le groupe précise procéder à l’analyse de près 450 millions de machines par an.

Les données présentées par Microsoft viennent de deux grandes sources, à savoir l'éxecution sur le poste client de deux outils, le Malicious Software Removal Tools (MSRT) et Windows Defender qui protège l'OS de près d'1,8 million de codes malveillants.

Premier bilan dressé par l'éditeur, le second semestre 2007 a vu une baisse de 15 % des divulgations de nouvelles vulnérabilités, atteignant ainsi le chiffre le plus bas depuis la seconde moitié de l'année 2005.

Les vulnérabilités demandant un bas niveau de complexité pour être exploitées ont continué de décroître pendant le second semestre 2007. Cela signifie que les failles d'indice « Élevé » divulguées sont plus difficiles à exploiter et nécessitent un certain niveau de spécialisation. Pendant cette année 2007, 32,2 % des vulnérabilités de sécurité (CVE) connues étaient associées à un code malveillant facilement accessible. Ce pourcentage était de 32,7 % en 2006.

En 2007, Microsoft a diffusé 69 Bulletins de sécurité traitant plus de 100 vulnérabilités contre 78 en 2006. Microsoft note une baisse de 11,5 % du nombre de bulletins de sécurité et de 29,6 % du nombre de vulnérabilités spécifiques en 2007.

Les produits Microsoft sont moins vulnérables

Dixit la firme de Remond, ce constat est particulièrement vrai pour Microsoft Office. Au cours de l'année 2007, le pourcentage de codes malveillants identifiés pour Office 2000 a été de 52,4 % alors que pour Office XP et Office 2003, ce pourcentage a chuté de 6,6 %.

Enfin, pour le système Microsoft Office 2007, ce chiffre a été de 11,1 % seulement, ce qui représente une baisse de 41,3 % par rapport à Office 2000.

Entre 2000 et 2007, les codes et logiciels malveillants ainsi que le piratage n'ont constitué que 23 % des notifications de violation de la sécurité enregistrées et n'ont représenté que 13 % des notifications de violation de la sécurité pour la seconde moitié de l'année 2007. Pour le second semestre 2007, la perte ou le vol d'équipement représentait 57 % des violations divulguées.

De l'efficacité de MSRT en milieu hostile

Microsoft est fier de sa solution et ne dissimule pas son enthousiasme. Selon l’éditeur, le second semestre 2007 a vu une hausse de 300 % du nombre de chevaux de Troie téléchargeurs et injecteurs détectés et supprimés.

Proportionnellement, l'outil MSRT est intervenu pour éliminer des programmes malveillants sur 60 % moins d'ordinateurs Windows Vista que d'ordinateurs Windows XP Service Pack 2.

De la même façon, l'outil MSRT est intervenu pour éliminer des programmes malveillants sur 87 % moins d'ordinateurs Windows Vista que d'ordinateurs Windows XP Service Pack 1 et 91 % moins d'ordinateurs Windows Vista que d'ordinateurs Windows XP sans service pack.

En règle générale, MSRT trouve davantage de programmes malveillants dans les pays/régions en voie de développement que dans les pays/régions développés. Par exemple, le pays d'Europe le plus infecté est l'Albanie, alors que les pays les moins touchés sont l'Autriche et la Finlande. Dans la région Asie/Pacifique, les pays les plus infectés sont la Mongolie et le Vietnam tandis que Taïwan et le Japon sont les moins touchés.

Les racines du mal

Le phishing est essentiellement un phénomène touchant les pays anglophones. Entre 75 et 80 % des pages de phishing enregistrées par le filtre anti-hameçonnage de Microsoft à un instant de la seconde moitié de 2007 étaient rédigées en anglais, le reste des pages l'étant en majeure partie dans des langues européennes comme l'italien, l'espagnol, l'allemand, le français et le turc.

129,5 millions de logiciels potentiellement indésirables ont été détectés entre le 1er juillet et le 31 décembre 2007 et 71,7 millions ont été supprimés. Ces chiffres représentent une hausse de 66,7 % du nombre total des détections et de 55,4 % des suppressions pour le premier semestre 2007.
Les logiciels de publicité restent la catégorie la plus importante de logiciels potentiellement indésirables pour la seconde moitié de 2007. Leur augmentation a été de 66 %, passant ainsi de 20,6 millions de détections à 34,3 millions.

Le courrier indésirable représente aujourd'hui plus de 90 % des messages électroniques envoyés par Internet. Outre la gêne occasionnée pour le destinataire et la diminution des ressources des messageries électroniques qu'il entraîne, le déferlement de courriers indésirables crée un vecteur potentiel d'attaques de programmes malveillants et de tentatives de phishing.

Source : http://www.silicon.fr/fr/news/2008/04/22/microsoft_s_offre_une_legitimite_en_matiere_de_securite

Office incompatible avec l'OOXML ?

Sans surprise, les documents générés par Word 2007 sont loin d'être conformes avec l'OOXML « Strict », tel que défini par l'ISO. Microsoft devra donc revoir sa copie. Les autres développeurs aussi…

Dans son blog, Alex Brown, responsable du groupe de travail Office Open XML (OOXML) à l'ISO, teste la conformité des documents docx générés par Office 2007. S'ils sont compatibles avec la norme ECMA-376, leur conformité avec le standard ISO/IEC 29500 laisse encore à désirer.

Dans la pratique, les documents générés par Word 2007 ne sont pas du tout compatibles avec la partie « Strict » du standard. Pour le modèle "Transitional", Alex Brown signale toutefois que peu d'adaptations seront à apporter à Office 2007 pour lui permettre de générer des documents 100% conformes.

Trois standards pour une même dénomination

Cette disparité entre les formats OOXML s'explique parfaitement. Trois versions standardisées - mais différentes - coexistent. L'ECMA-376 colle parfaitement à ce que Word 2007 sait générer. Le standard ISO/IEC 29500 «Transitional » est assez proche du format proposé originellement par Office 2007. La partie « Strict » est, par contre, la plus impactée par les discussions entre l'ECMA, l'ISO et Microsoft.

Il est probable que nous parlerons prochainement de traitements de texte «xx%» compatibles avec l'ECMA-376, « xx% » compatibles avec l'ISO/IEC 29500 Transitional et « xx% » compatibles avec l'ISO/IEC 29500 Strict. L'outil qui sera le plus proche des 100% pour les trois standards aura de grandes chances de remporter les faveurs du public. Aujourd'hui, Office 2007 fait un score que nous pouvons estimer à 100%/90%/0% (sic)

Selon l'AFNOR, la mise en avant d'une compatibilité partielle n'est pas un problème en soi. Le risque est, bien évidemment, que certains traitements de texte affichent leur conformité avec le standard ISO, en oubliant de signaler qu'elle n'est que partielle. L'ISO devra donc surveiller tout cela de très près.

Notez que concernant le format OpenDocument (ODF), le même problème existe : entre les versions 1.0 (ISO/IEC 26300) et 1.1 (non standardisée par l'ISO, mais intégrée à OpenOffice.org 3.0), il y a aussi de quoi s'y perdre. La compatibilité avec le standard n'est également pas toujours parfaite. Elle est ainsi moins bonne sous AbiWord 2.6.2 que sous OpenOffice.org 3.0.

Là encore, des chiffres précis sur le pourcentage exact de compatibilité avec le standard seront plus que bienvenus.

Où en est-on maintenant ?

Microsoft Office 2007, Corel WordPerfect X4 et le futur OpenOffice.org 3.0 (pour n'en citer que trois) sont tous compatibles avec l'OOXML ECMA-376. Chacun de ces outils pourra donc rapidement se montrer compatible avec la partie «Transitional » du standard ISO. Pour la partie « Strict » le travail sera plus ardu, mais c'est aussi dans ce but qu'un format de transition a été intégré au standard (pour laisser le temps aux éditeurs de migrer vers le format strict).

Certains outils se montrent plus aptes à la convergence entre les formats. OpenOffice.org 3.0 promet d'être le grand champion, avec son support ODF 1.0 et 1.1, OOXML ECMA-376 et PDF. WordPerfect X4 s'en sort très honorablement : ODF 1.0, OOXML ECMA-376 et PDF. Avec Office 2007, nous descendons d'un cran : import ODF 1.0 (grâce à un outil externe) et OOXML ECMA-376.

Vous noterez que la bataille des formats touche aussi le PDF, en export comme en import. Dans ce domaine, deux standards ISO cohabitent : ISO 19005-1 (PDF/A-1. PDF for Archive) et ISO 15930 (PDF/X. PDF for eXchange). Cette dernière norme se décline en quatre formats différents. Un véritable sac de nœuds pour l'utilisateur final.

Source : http://www.silicon.fr/fr/news/2008/04/22/office_incompatible_avec_l_ooxml__

mardi 22 avril 2008

Linux : sortie du noyau 2.6.25

Multitâche amélioré, meilleure gestion des systèmes embarqués, sécurité simplifiée, la version 2.6.25 de Linux est une étape importante pour le célèbre noyau 'open source'

Ne vous y trompez pas… Malgré un numéro 'anodin', le noyau Linux 2.6.25 est une version majeure. Elle intègre une multitude de changements, résumés dans un changelog de 7,5 Mo !

Le noyau devient maintenant plus apte à faire fonctionner des systèmes embarqués, grâce à la présence d'un ordonnanceur temps réel amélioré (qui n'est cependant pas encore au niveau des capacités temps réel apportées par les patchs des sociétés œuvrant dans ce domaine). La mémoire occupée par un processus sera également plus facile à mesurer, tout comme les temps de latence du système.

Le support des processeurs ARM a été largement amélioré. Les plates-formes NAS (Network Attached Storage) Marvell Orion sont reconnues en standard. Les hackers du monde libre pourront ainsi installer leur propre distribution Linux sur les très nombreux produits utilisant cette architecture.

Dans le domaine des serveurs et des stations de travail, un bogue important a été corrigé. Une corruption de mémoire touchait les machines x86 sous Linux 32 bits, pourvues de plus de 4 Go de mémoire physique.

Le module SMACK (Simplified Mandatory Access Control Kernel) se charge de la sécurité. Il est fourni en complément/remplacement de SELinux, une solution plus puissante, mais aussi bien plus complexe à mettre en œuvre. Enfin, une nouvelle révision du système de fichiers journalisé ext4 est intégrée. L'ext4 sera adopté par la prochaine Fedora 9.

Source : http://www.silicon.fr/fr/news/2008/04/21/linux___sortie_du_noyau_2_6_25

Linux : deux nouvelles Ubuntu, dans trois jours

L'Ubuntu 8.04 sortira d'ici quelques jours, en édition desktop et serveur. Le support de ces deux versions sera assuré pendant respectivement trois et cinq ans

L'Ubuntu 8.04 LTS Desktop Edition arrivera sur le marché le 24 avril prochain. En plus d'adopter les dernières versions des logiciels open source les plus populaires (dont Firefox 3 beta 5), cette distribution Linux sera supportée pendant trois années (LTS signifie Long Term Support). Les utilisateurs souhaitant coller à l'actualité pourront cependant passer à l'Ubuntu 8.10, dès octobre 2008.

De nombreux éditeurs ont d'ores et déjà annoncé qu'ils fourniront des applicatifs adaptés à cette distribution Linux : Adobe, Corel, Fluendo, Google, IBM (Lotus), Nero, Parallels, Real Networks, Skype… C'est un des premiers bénéfices de cette durée de vie étendue. Les entreprises seront également plus promptes à adopter ce système d'exploitation, n'ayant pas à craindre de changement majeur dans les trois années à venir.

La version serveur de l'Ubuntu 8.04 LTS (Server Edition) sera également disponible le 24 avril. Le support sera ici assuré pendant une durée de cinq années. Ultra professionnelle, elle a déjà été certifiée pour plusieurs serveurs x86 64 bits de Sun, dont les Sun Fire X2100 M2, X2200 M2 et X4150.

Des solutions d'authentification (FreeRadius), de surveillance (Munin), de réseau privé virtuel (OpenVPN), de sauvegarde (Bacula) et d'intégration à Active Directory (LikeWise Open) sont intégrées en standard. Les applications des ISV (Independent Software Vendor) suivants sont validées pour cette nouvelle version : Alfresco, Bacula, IBM, Parallels, Qumranet, Tresys, VMWare, Zarafa, Zend, Zimbra…

Ces deux versions LTS succèdent aux Ubuntu 6.06 LTS Desktop Edition et Server Edition, dont le support s'achèvera respectivement en juin 2009 et juin 2011. Les entreprises auront donc largement le temps de migrer vers les nouvelles LTS. L'Ubuntu 8.04 LTS sera téléchargeable gratuitement sur cette page… dès jeudi.

Source : http://www.silicon.fr/fr/news/2008/04/21/linux___deux_nouvelles_ubuntu__dans_trois_jours

Microsoft expérimente le modèle gratuit avec Works

Redmond entend rentabiliser certains de ses logiciels par la publicité

L'idée n'est pas neuve mais le changement est d'importance pour Microsoft, qui lance aujourd'hui un test à grande échelle de ce mode de rétribution.

Face aux offensives des logiciels en ligne gratuits comme ceux de Google, OpenOffice ou de Lotus, Microsoft n'entend pas rester inactif. En attendant le véritable déploiement d'Office Live, une version spéciale de Works est apparue sur les PC de certains constructeurs (l'éditeur ne précise pas lesquels). Microsoft veut ainsi tester un nouveau modèle commercial avec Works SE (Sponsored Edition), qui affiche un petit bandeau publicitaire.

Cette version n'est aujourd'hui disponible qu'aux États-Unis, en France, au Royaume-Uni, au Canada et en Pologne. Notez que l'ensemble de publicités se met à jour automatiquement lorsque le PC dispose d'une connexion Internet active.

Microsoft espère tirer des revenus substantiels de sa 'petite' suite bureautique. En première analyse, le cadeau fait aux constructeurs n'est pas énorme, la version OEM de Works 9 coûtant moins de 6,5 euros HT par machine. Ces derniers pourront cependant être tentés d'adopter une version gratuite de Works, en lieu et place d'OpenOffice.org par exemple.

La firme de Redmond pourrait également faire une excellente affaire : la prise de risque est faible et les revenus publicitaires escomptés pourront sans mal couvrir le prix de vente actuel de la suite bureautique.

Pour rappel, Works regroupe un traitement de texte, un tableur, une base de données et un agenda. La version 9 est sortie - en catimini - fin 2007. Works Plus 2008 intègre également le traitement de texte Word 2003. La sortie de ces deux produits a été si discrète qu'ils ne sont toujours pas référencés sur le site de Microsoft France.

Source : http://www.silicon.fr/fr/news/2008/04/21/microsoft_experimente_le_modele_gratuit_avec_works

XP SP3, Vista SP1, Windows 7, Microsoft précise son calendrier

Didier Burdinat, patron des produits Windows, revient sur les dernières annonces de la firme

Microsoft, à travers la voix de Didier Burdinat directeur de la ligne de produits Windows, a souhaité confirmer officiellement l'agenda des sorties de ses différents systèmes d'exploitation desktop.

Un SP3 et puis s'en va

Le code du Service Pack 3 de Windows XP est maintenant figé (il se trouve en RTM pour Release To Manufacturing). Il sera disponible en téléchargement le 29 avril 2008 (RTW pour Release To Web). Son intégration aux mises à jour automatiques ne se fera cependant pas avant le début de l'été.

Le SP3 compile les correctifs émis depuis le SP2 et ajoute un client NAP (Netwok Access Protection), issu de Windows Server 2008. Ce dernier permet de mettre en quarantaine des postes de travail compromis. Aucune autre nouveauté ne sera présente : le SP3 ne permettra donc pas d'améliorer les performances du système face à un PC sous Windows XP SP2 (si ce dernier a été mis à jour régulièrement).

Microsoft le confirme : Windows XP sera commercialisé jusqu'au 30 juin 2008, pour les versions boite et les licences utilisées par les grands constructeurs. Les assembleurs locaux pourront cependant l'acheter jusqu'au 30 janvier 2009. Autre exception, les UMPC (Ultra-Mobile PC) pourront accéder à Windows XP jusqu'au 30 juin 2010. La société est consciente que ce système d'exploitation est plus adapté en terme de ressources et moins gourmand que Vista.

Concernant la pétition pour sauver Windows XP, la firme souligne que tout client qui utilise Windows Vista Édition Professionnelle (en OEM) peut y installer Windows XP. Ceci restera valide même après l'arrêt de la commercialisation de ce dernier.

Vista d'abord, Windows 7 plus tard

Didier Burdinat rappelle également les nouveaux cycles de production de Microsoft, soit un système d'exploitation tous les trois ans. Sachant que Windows Vista est sorti le 20 janvier 2007, Windows 7 devrait donc faire son apparition début 2010, avec une RTM fin 2009. Il signale que les entreprises attendent en général le SP1 d'un système d'exploitation pour migrer. Il est donc peu probable que Windows Seven soit adopté par les professionnels avant mi-2011.

Considérant cela, nous sommes cependant en droit de nous demander si un cycle de trois ans entre chaque système n'est pas trop court. De fait, il est difficile pour une entreprise d'adopter un système d'exploitation en version SP1 (environ 18 mois après sa sortie), alors même que le suivant arrivera 18 mois plus tard. Il nous semble probable que certains clients traîneront les pieds face à ce rythme imposé, quitte à sauter une génération.

Microsoft se veut cependant rassurant concernant les ventes de Windows Vista. La compagnie précise que plusieurs grands comptes migrent actuellement vers ce système : PSA, EDF, etc. Windows Vista SP1 va également être proposé d'ici quelques jours dans les mises à jour automatiques. Windows Update installera ainsi le SP1 sur les ordinateurs des possesseurs de Vista, dans les jours et semaines à venir.

Enfin, concernant les études plus que contradictoires des instituts d'analyse, Didier Burdinat s'estime "en complet désaccord" sur la dernière étude de Gartner qui prévoit un déclin de Windows. "A notre avis, elle est fondée sur des données incomplètes concernant Windows 7 et Windows 8", précise-t-il.

Evidemment, l'analyse de Forrester qui encourage les entreprises à passer dès maintenant sur Vista a été bien mieux accueillie...

Source : http://www.silicon.fr/fr/news/2008/04/21/xp_sp3__vista_sp1__windows_7__microsoft_precise_son_calendrier

lundi 21 avril 2008

Un correctif pour Vista fatal à l'USB

Microsoft va devoir corriger un correctif

L'éditeur vient en effet de reconnaître que sa dernière livraison mensuelle de rustines, mise en ligne le 8 avril, renferme un bogue susceptible d'affecter certains utilisateurs de Windows Vista.

Censé corriger, entre autres, une vulnérabilité frappant Windows Defender, le lot de patches causerait un dysfonctionnement des périphériques USB. Même après réinstallation, souris et clés de stockage de plusieurs utilisateurs ont cessé de répondre depuis la mise en place de la rustine. L'éditeur se dit conscient du problème et reconnaît le lien entre sa mise à jour et la disparition du support de l'USB. S'il planche sur une solution, il n'a pas indiqué dans quel délai les utilisateurs pourront à nouveau profiter de leurs périphériques.

Quelque soit la rapidité de réaction de Microsoft, cet incident contribue inévitablement à noircir le bilan de Vista, déjà peu reluisant. Les entreprises ne semblent définitivement pas décidées à adopter le nouvel OS et les consommateurs sont de plus en plus nombreux à réclamer un sursis pour Windows XP. Microsoft leur a récemment donné gain de cause - du moins partiellement - en annonçant récemment que le prédécesseur de Vista verrait sa durée de vie prolongée de deux ans pour satisfaire la demande liée au marché des ultraportables et autres PC à bas coût.

Source : http://micro.lemondeinformatique.fr/actualites/lire-un-correctif-pour-vista-fatal-a-l-usb-2093.html

MySQL Conference et Expo : polémique autour de la fermeture partielle du code

Premier rassemblement depuis le rachat de la société par Sun, la sixième MySQL Conference & Expo a vu son lot de nouveautés et de controverses autour d'une possible fermeture partielle du code source de la base de données

Connu pour sa mainmise sur les développements open source de ses produits phares - Java et Solaris - Sun était surveillé de près par les développeurs de MySQL depuis l'annonce du rachat de la base données libre. Et la sixième MySQL Conference & Expo, qui s'est terminée hier à Santa Clara (Californie) leur a permis de se faire entendre.

Une décision prise avant le rachat, plaide Sun

Au coeur de la controverse, MySQL 6.0, attendue pour la fin de l'année. Cette version comprendra des outils de restauration et de sauvegarde. Et certains d'entre eux seront réservés à la version payante de MySQL Entreprise (vendue de 479 à 3 999 euros par serveur et par an suivant les versions).

Une annonce qui a conduit Vadim Tkachenko, ancien employé de MySQL devenu consultant chez Percona et toujours utilisateur, à s'interroger : « Est-ce que MySQL ne croit plus en l'open source ? Ou n'y croit-elle que partiellement ? Je comprends qu'il ne s'agisse que d'une question d'argent, et chacun fait ce qu'il veut avec son produit, mais MySQL ne semble pas faire jeu ouvert dans cette histoire. » Et Slashdot, le blog qui appartient au même groupement de sites que SourceForge, accusait même hier Sun de vouloir fermer le code source de cette base de données.

Pour Bertrand Matthelié, directeur marketing EMEA de MySQL pour Sun et qui travaille depuis sept ans pour MySQL, cette polémique est sans fondement. « A 100 %, cette décision a été prise par MySQL, avant le rachat par Sun, affirme-t-il. De plus, le coeur des outils de back-up sera disponible pour tous en GPL. Seul des plug-in particuliers seront réservés à nos client MySQL Entreprise (cryptage à la volée ou pilote pour certaines baies de stockage). »

« Nous n'avons pas encore décidé de la licence qui les protégera. Dans tous les cas, la communauté pourra elle aussi, si elle veut, développer ses propres add-on. »

Une nouvelle interface de modélisation

Outre des précisions sur MySQL 6.0, cette conférence a aussi vu le lancement d'un logiciel, MySQL Workbench, un outil graphique pour modéliser simplement ses bases de données. Il est disponible dès aujourd'hui sur le même modèle que MySQL. A savoir une version gratuite à télécharger, la Community Edition ; et une version payante, la Standard Edition, à 79 euros par serveurs et par an. Cette version payante bénéficie de modules supplémentaires pour accélérer le travail des développeurs de base de données.

La prochaine mise à jour majeure, MySQL 5.1, a également été annoncée pour fin juin. « Nous attendons 15% de gain de performance avec cette version », précise Bertrand Matthelié. Elle proposera également quelques nouveautés comme un partitionnement de la base, des options nouvelles de réplication ou encore un programmateur de tâches, que celles-ci soient récurrentes ou non.

Source : http://www.lemondeinformatique.fr/actualites/lire-nouveautes-et-controverses-au-menu-de-la-sixieme-mysql-conference-et-expo-25902.html

Vista, un OS « en chantier », reconnaît Steve Ballmer

« Windows Vista, a work in progress »

Passant en revue quelques-uns des produits du groupe de Redmond devant une foule de 1 800 utilisateurs aguerris aux technologies Microsoft (MVP, most valuable professionals) réunis pour une conférence annuelle à Seattle, Steve Ballmer a reconnu que Vista était un système d'exploitation encore en chantier. « Sérieusement, a-t-il continué, [il s'agit d'] une réalisation très importante, et je pense qu'il y a de nombreuses choses que nous avons bien faites, et un grand nombre de choses desquelles nous devrons tirer des leçons. »

Première leçon tirée par le CEO de Microsoft : ne plus laisser passer cinq ans entre deux versions de l'OS. Et si Steve Ballmer a indiqué qu'il écoutait constamment les remarques des clients, il a aussi précisé que la taille de Vista ne bougerait pas, et que ce dernier « restera plus gros que XP ». En revanche, il devrait ne pas grossir encore davantage.

Le patron de Microsoft est ensuite rapidement passé à son nouveau cheval de bataille, la virtualisation. Qui est justement, pour Gartner, une des raisons qui font qu'un OS de la taille de Vista deviendra bientôt obsolète.

La transcription de l'intervention de Steve Ballmer sur le site de Microsoft, en anglais.

Source : http://micro.lemondeinformatique.fr/actualites/lire-vista-un-os--en-chantier--reconnait-steve-ballmer-2094.html

Red Hat ne voit pas son Linux sur les PC personnels

Ceux qui attendaient une déclinaison grand public de l'OS pour entreprise de Red Hat vont être déçus : l'éditeur n'a pas l'intention de lancer un système d'exploitation pour les PC personnels

« Nous ne prévoyons pas de créer un produit pour les postes de travail sur le marché grand public », confirme ainsi Red Hat sur son blog. Raison invoquée : il n'y aurait guère de place sur ce segment aux côtés de Microsoft et ses Windows.

« Le marché souffre de la domination d'un acteur et certaines personnes estiment que les postes de travail Linux ne constituent pas une réelle alternative », note encore l'éditeur, qui ne partage évidemment pas cette dernière conviction : « Bien sûr, un nombre croissant d'utilisateurs et d'entreprises ont réalisé que Linux est une vraie alternative. Néanmoins, il est compliqué de construire un business autour des postes de travail Linux et l'histoire est jalonnée d'exemples d'échecs. »

Plutôt que de se lancer sur un marché incertain, l'entreprise indique qu'elle va continuer à concentrer ses efforts sur Red Hat Enterprise Linux, en attendant son Red Hat Global Desktop, conçu notamment pour les déploiements à petite échelle et les marchés émergents.

Une décision pas surprenante pour les analystes

La décision de l'éditeur de rester en dehors de la sphère grand public n'étonne cependant pas les analystes. Selon Gordon Haff, de l'institut Illuminata, Red Hat pourrait avoir décidé de rester en dehors du marché de masse en raison des exigences des consommateurs, qui attendent d'un OS qu'il soit équipé de lecteurs multimédia : « L'approche de Red Hat a toujours été 100% Open Source ; l'obligation d'inclure des codecs propriétaires et d'autres choses du même genre inhérentes à une version grand public de l'OS, n'entre pas vraiment dans la philosophie de Red Hat. »

Mais plus encore que cette question sur l'éthique du Libre, Red Hat pourrait tout simplement baisser les bras pour une raison purement économique : « Combien de personnes sont prêtes à payer pour avoir Linux sur leur poste de travail domestique ? Très peu. » Même son de cloche pour Dana Gardner, analyste chez Interarbor Solutions. Pour elle, un OS grand public « n'est pas compatible avec l'activité de Red Hat ».

Novell considère que Linux restera du côté pro pendant encore cinq ans

Des positions en ligne avec les récentes déclarations du président de Novell, Ronald Hovsepian, selon lequel « le marché de [Linux sur] desktop au cours des cinq prochaines années repose essentiellement sur les entreprises ».

Mais, si Red Hat et Novell partagent la conviction que Linux n'a guère d'avenir sur les PC des consommateurs, d'autres en revanche misent sur le marché grand public pour leur distribution. C'est notamment le cas d'Ubuntu, dont la version 8.04 sera disponible dans les prochains jours à la fois pour les entreprises et les particuliers.

De même, plusieurs constructeurs de PC étoffent leur offre en proposant aux consommateurs d'acquérir une machine pré-équipée d'un OS Open Source. Lenovo installe ainsi ses T61 et R61 de SUSE et Dell s'appuie sur Ubuntu. Aucun chiffre ne vient toutefois confirmer le succès de ces offres auprès du grand public.

Source : http://www.lemondeinformatique.fr/actualites/lire-red-hat-ne-voit-pas-son-linux-sur-les-pc-personnels-25898.html

vendredi 18 avril 2008

RGI : Bercy voudrait imposer Microsoft Office aux administrations

Bloqué depuis six mois, le référentiel général d'interopérabilité devient brutalement une urgence... pour imposer Microsoft Office 2007 aux administrations ?

La nouvelle a fait le tour des administrations d'Etat durant la journée du 16 avril 2008 : le Référentiel Général d'Interopérabilité (RGI), bloqué depuis le 12 octobre 2007, devient brutalement une urgence pour la DGME (Direction générale de la modernisation de l'Etat).

Le RGI, mis au point par une large collaboration de toutes les administrations sous l'égide de la DGME, définit précisément les règles de bonne gouvernance des systèmes d'information des administrations, tant en termes de méthodes que de technologies, notamment de formats de fichiers.

Marc Meyer, chef de service « Développement de l'Administration Electronique » de la DGME, a reconnu dans une communication interne le 16 avril 2008 que le blocage était directement lié à un gros défaut de conception du RGI : le seul format bureautique accepté était OpenDocument (ODF, norme ISO 26300). Exit Microsoft et sa suite Office 2007, utilisant le format Office OpenXML. Inacceptable pour l'éditeur américain... qui finance et multiplie les partenariats para-publics (notamment dans l'Education nationale et la Recherche).

Marche arrière toute : désormais, les formats OpenDocument et Office OpenXML seront traités à égalité dans le RGI. Le prétexte du changement de politique est la récente normalisation du format OpenXML défendu par Microsoft dans les conditions que l'on sait sous la référence ISO 29500.

Mais l'égalité suppose que toutes les administrations soient en mesure de traiter (en entrée, en sortie et en interne) les deux formats bureautiques au lieu du seul OpenDocument, ce qui est aujourd'hui impossible sans acquérir Microsoft Office 2007. Cela sans oublier que le véritable format ISO 29500 est aujourd'hui une vue de l'esprit puisque Microsoft Office 2007 n'implémente qu'une version d'OOXML préalable à celle qui a été normalisée, Microsoft ayant accepté d'amender sa copie.

Pas de confirmation officielle à la DGME

Si la modification du RGI n'est pas encore actée, le sujet devant être traité par des réunions interministérielles et tranché aux très prochaines Assises du Numérique, elle est évidemment le fruit d'une grande bataille d'influence entre les différents acteurs du marché informatique (Microsoft et quelques rares alliés d'un côté ; IBM, Google, Sun et les acteurs du logiciel libre de l'autre). Le point semble donc a priori marqué par Microsoft.

A noter que, pour des raisons juridiques, le RGI ne pourrait pas être imposé aux collectivités locales et territoriales, dont l'autonomie est garantie par la Constitution. Il en résulte que celles-ci ne pourraient qu'opter volontairement (même incitées fortement) pour le respect des règles de bonne conduite du RGI.

Mise à jour

Contactée par mail avant l'écriture de l'article (service communication et sous-direction concernée), la DGME n'a pas répondu à nos questions. Relancés par téléphone, les opérationnels ont refusé de commenter nos informations et la direction de la communication très sèchement de même. Selon des sources proches du dossier, l'ambiance interne de la DGME serait pour le moins animée suite aux fuites à la base du présent article.

Source : http://www.lemondeinformatique.fr/actualites/lire-rgi-bercy-voudrait-imposer-microsoft-office-aux-administrations-25879.html

Inauguration du Musée français de l'informatique

L'informatique dispose enfin de son musée !

Prenant la suite d'une exposition temporaire, le Musée de l'Informatique a été inauguré le 15 avril au soir sur le Toit de la Grande Arche, à Paris la Défense, par Philippe Nieuwbourg, son directeur. Il s'agit du premier musée permanent ouvert au public en Europe - en dehors de collections privées d'entreprises comme chez Bull en région parisienne ou Unisys à Bruxelles, à accès restreint.

Partant de la mécanographie, il parcourt le fil du temps pour s'achever par les technologies récentes. Une exposition temporaire de six mois s'ajoute à ce fil du temps et retrace l'histoire d'Internet, du président Eisenhower jusqu'aux années 2000.

De nombreuses pièces de collection parsèment des explications à la fois sous forme de textes courts en anglais et français et de vidéos projetées.

Le site Web du Musée de l'Informatique, encore très succinct.

Source : http://www.lemondeinformatique.fr/actualites/lire-inauguration-du-musee-francais-de-l-informatique-25885.html

jeudi 17 avril 2008

Les Captcha de Microsoft sont aisément contournables

Le système utilisé par Microsoft pour déjouer les inscriptions automatiques de bots à son service de courrier électronique crée « un faux sentiment de sécurité »

Deux checheurs, Jeff Yan et Ahmad Salah El Ahmad, de l'université britannique de Newcastle, ont développé un outil capable de réussir 60% des Captcha mis en place par Microsoft pour valider les inscriptions au courriel de Windows Live Mail.
La technologie Captcha (Completely automated public Turing test to tell computers and humains apart) est un système de validation basé sur la reconnaissance humaine d'une série de caractères déformés. Pensé pour constituer une barrière contre l'utilisation d'outils automatisés chargés de multiplier les inscriptions - pour multiplier les émissions de pourriels -, le système s'avère donc très perméable. Il pourrait pourtant l'être moins, estime Jeff Yan, grâce à des solutions simples comme des lettres davantage entremêlées. Un moyen qui rendrait cependant aussi la résolution du Captcha plus compliquée pour les utilisateurs.

La faillibilité de cette technologie s'est accentuée au cours des derniers mois. Qu'il s'agisse de Microsoft, Yahoo ou Google, les Captcha mis en place pour protéger les services d'emails se sont montrés à de multiples reprises inefficaces, entraînant une explosion du nombre de spams expédiés par l'intermédiaire de ces services. Pourtant, le Captcha de Microsoft est bien conçu, selon les chercheurs, qui planchent sur le sujet depuis la mi-2007. « Pour la première fois, on voit un Captcha mis au moins par des professionnels sérieux... Néanmoins, concevoir un système parfait n'est pas facile. »

En février, certains hackers utilisaient une méthode leur permettant de contourner 30% à 35% des Captcha de Hotmail. Jeff Yan et Ahmad Salah El Ahmad sont parvenus à doubler ce taux. L'une des épreuves les plus délicates auxquelles ils se sont frottés consistait à parvenir à séparer les lettres composant les codes et les replacer dans le bon ordre, une étape baptisée segmentation. Pour y arriver, ils ont développé un procédé en sept étapes. Dans 92% des cas, cette méthode isole chacune des lettres présentes sur le Captcha de Microsoft. La reconnaissance des caractères appliquée par la suite permet de résoudre 61% des combinaisons.

L'outil fonctionne également avec les Captcha de Yahoo et Google, mais avec un taux de réussite inférieur.

Source : http://micro.lemondeinformatique.fr/actualites/lire-les-captcha-de-microsoft-sont-aisement-contournables-2087.html

Fujitsu dévoile un PC portable en bois

Le salon Japan Design 2008 sert de théâtre à Fujitsu pour la présentation d'un PC portable résolument ancré dans l'ambiance écolo berçant la sphère IT depuis quelques années

Le constructeur peut se targuer d'avoir mis au point un produit vert : sa machine arbore en effet une coque en bois, en lieu et place du traditionnel plastique.


Le PC, qui n'est encore qu'un prototype, est construit en bois de cèdre pour le boîtier et en bio-plastique - une matière issue de sources renouvelables comme les huiles végétales plutôt que de pétrole. Pour ce projet, Fujitsu s'est associé à Monacca, une entreprise japonaise spécialisée dans la fabrication de produits en bois (valises, calculatrices, etc.)

Si la commercialisation de la machine n'est pas imminente, le constructeur assure utiliser des composants verts dans ses PC actuellement en vente. Ainsi, Fujitsu utilise du bio-plastique à base de maïs depuis 2002 pour la fabrication de ses portables. Et de citer le Biblio NX95 et son boîtier, composé à 30% de plastique propre.

Source : http://micro.lemondeinformatique.fr/actualites/lire-fujitsu-devoile-un-pc-portable-en-bois-2088.html

Le Gartner invite les entreprises à se méfier du mariage entre SaaS et open source

D'après le Gartner, d'ici 2010 neuf prestataires SaaS (Software as a Service) sur dix s'appuieront sur l'offre open source afin de réaliser des économies

Systèmes d'exploitation, serveurs d'application, bases de données... tout serait bon dans le libre pour réduire les coûts d'infrastructure. Mais Robert Desisto, analyste au Gartner, apporte un important bémol. Les prestataires SaaS n'ont pas l'intention de faire bénéficier leurs clients de ces économies en logiciel, préférant réinvestir les bénéfices en R&D ou simplement... les garder.

Pour mener à bien une telle stratégie, les prestataires SaaS chercheront à stimuler le développement Open Source, toujours selon le Gartner, de plusieurs manières. Ils pourraient par exemple adopter prématurément des solutions encore en test ou en bêta. Pour le cabinet de consultants, ce penchant pour l'open source pourrait, à terme, poser bien des problèmes aux utilisateurs finals. Il cite ainsi Salesforce et SugarCRM, deux prestataires qui permettent aux utilisateurs de développer des extensions de logiciels commerciaux du marché pour les partager ensuite.

Ces exemples pourraient se répandre et à terme, les prestataires proposeraient des solutions qui ressembleraient à du logiciel libre, auraient le goût du logiciel libre, mais n'en seraient pas vraiment. Les développeurs qui conçoivent ces extensions peuvent en effet adopter une démarche lucrative et demander un paiement en échange de leur travail. La facturation du service d'application reposant sur un coeur payant et des briques diverses et variées, payantes ou non, risque d'engendrer des modèles hybrides complexes à gérer pour les prestataires SaaS.

Des clients en infraction sans le savoir

Pis encore, les clients pourraient utiliser du code payant sans le savoir et donc se trouver en infraction vis-à-vis des législations anti-piratage ! Pour le Gartner, une seule solution : les entreprises doivent s'impliquer, voire s'ingérer dans la manière dont leur prestataire travaille avec l'open source. Et ce d'autant plus que les directions informatiques perdent le contrôle et la visibilité quand les services ventes ou marketing décident seules d'utiliser une solution SaaS. Ces dernières ne sont pas forcément les mieux placées pour surveiller les ajouts de code et juger de leur qualité. Malheureusement, une fois l'application externalisée, les services informatiques auront bien du mal à récupérer le contrôle si l'entreprise n'est pas directement impliquée dans les choix effectués par son prestataire...

Source : http://www.lemondeinformatique.fr/actualites/lire-le-gartner-invite-les-entreprises-a-se-mefier-du-mariage-entre-saas-et-open-source-25875.html

Du retard dans le développement de MySQL...

MySQL 5.1 est officiellement disponible. Il s'agit cependant uniquement d'une 'Release Candidate', l'équipe de développement étant confrontée à des bogues récalcitrants



MySQL 5.1 devait arriver à la fin du mois de mars. Il aura fallu attendre 15 jours de plus avant que Sun ne l'annonce officiellement, lors de la conférence annuelle MySQL de Santa Clara (Californie).

Hélas, il s'agit uniquement d'une « Release Candidate », dont l'utilisation sur un serveur de production est déconseillée. La version finale de cet outil de gestion de bases de données n'arrivera que fin juin. Raison invoquée par Sun Microsystems : divers bogues restent à éliminer.

Le développement s'est effectué sous le signe de l'amélioration des performances et d'une meilleure capacité d'évolution. Du côté des performances, le pari semble d'ores et déjà gagné, puisque MySQL 5.1 est globalement 15% plus véloce que son prédécesseur.

De nouvelles fonctions de partitionnement et de réplication des données permettront à la fois d'accélérer les opérations de maintenance et de sauvegarde, mais aussi de faciliter la répartition de la charge entre plusieurs serveurs (et plusieurs instances de MySQL).

Un programmateur d'évènements permettra enfin d'automatiser toutes les tâches répétitives, et ceci de façon plus efficace qu'avec les outils présents en standard sous Unix ou Windows.

Sun a également annoncé la sortie de MySQL Workbench 5.0, un outil graphique qui simplifiera la création et l'administration de bases de données. Il est disponible en deux versions. La première, sous licence GPL, est librement téléchargeable. La seconde coûte 99 dollars (avec un an de mises à jour) et ajoute des modules qui permettront d'optimiser la gestion des flux.
Actuellement, MySQL Workbench n'existe que sous Windows. Des versions Linux (x86) et Mac OS X (x86) devraient apparaître prochainement. L'équipe de développement semble avoir fait l'impasse sur Solaris (le patron ne sera pas content).

Source : http://www.silicon.fr/fr/news/2008/04/16/du_retard_dans_le_developpement_de_mysql___

mercredi 16 avril 2008

Adobe et Sun offrent des formats vidéo ouverts

Les formats ouverts ont le vent en poupe. Adobe s'attaque ainsi à l'industrie du cinéma. Sun se focalise pour sa part sur le web et les DRM

Avec le CinemaDNG, Adobe propose un format de fichier ouvert qui pourra être adopté sans frais par les industriels du cinéma. La compagnie a annoncé que les futures versions d'After Effects et de Premiere Pro seront compatibles avec ce format.

Adobe travaille avec divers constructeurs de caméras numériques, tels Panavision, Silicon Imaging, Dalsa, Weisscam et ARRI. Des acteurs du monde logiciel sont également de la partie : Iridas, The Foundry et CineForm.

En mettant en avant la standardisation et l'unification des formats utilisés par l'industrie du cinéma, Adobe espère renouveler le succès rencontré par son format DNG (Digital Negative), adopté par nombre de constructeurs d'appareils photos numériques (Casio, Hasselblad, Leica, Pentax, Ricoh, Samsung…).

Sun Microsystems travaille également à l'élaboration de formats audio/vidéo ouverts, mais dans un tout autre domaine, celui des appareils grand public et du web. La compagnie, à travers l'initiative Open Media Commons, propose ainsi une plate-forme open source intégrant codecs et DRM (Digital Rights Management ou gestion des droits numériques).

Libre de droits et ouverte à tous les systèmes d'exploitation, cette solution s'appuie sur des formats connus. L'OMS Video (Open Media System) se base ainsi sur l'H.261, relativement similaire au codec H.264, mais libre de droits. Côté audio, l'utilisation de l'Ogg Vorbis a été évoquée.

Source : http://www.silicon.fr/fr/news/2008/04/15/adobe_et_sun_offrent_des_formats_video_ouverts

Ecocho, le moteur de recherche qui reboise

Le nouveau moteur de recherche Ecocho entend se classer parmi les initiatives « vertes »

Ce service, qui s'appuie sur la puissance technique de Google et Yahoo, incite à son utilisation avec une promesse : toutes les 1 000 recherches faites sur son portail, il parraine la croissance d'un ou deux arbres afin de compenser l'émission d'une tonne de gaz carbonique.

Pour les usagers, le service est gratuit. La société se rémunère grâce un pourcentage des revenus publicitaires de Yahoo et de Google générés par son activité. Mais son fondateur, l'Australien Tim Macdonald, reste avant tout fidèle à son idéal de protection environnementale : « ecocho.com compte réinvestir en crédits carbone 70 % de ses revenus. » Au fur et à mesure du développement de son site, il prévoit de soutenir des initiatives similaires dans d'autres états et pays. Le moteur de recherche est, selon lui, l'une des méthodes les plus faciles pour inciter les gens à changer leur comportement quotidien, avec un impact positif sur l'environnement. Lancé dès aujourd'hui dans 14 pays, le site est disponible en 63 langues.

http://www.ecocho.com

Source : http://www.lemondeinformatique.fr/actualites/lire-ecocho-le-moteur-de-recherche-qui-reboise-25859.html

mardi 15 avril 2008

La France au 21e rang mondial dans l'adoption des TIC

Le classement annuel du Forum économique mondial et de l'Insead laisse la France aux portes du Top 20, sur 127 pays, pour l'usage des technologies de communication. Avec des points forts sur l'e-administration et des lourdeurs sur les contraintes réglementaires

La France n'a guère progressé depuis deux ans dans le classement annuel du Forum économique mondial, établi avec l'école de commerce Insead, sur l'adoption des technologies de l'information et de la communication (TIC) dans le monde. 22e en 2005, 23e en 2006, elle n'occupe que la 21e place, sur 127 pays, dans le GITR (Global Information Technology Report) 2007-2008 qui évalue plus précisément le niveau de préparation atteint par les pays pour exploiter efficacement les TIC.

Les auteurs du rapport indiquent néanmoins que la France bénéficie d'avancées technologiques et de moyens de connexion satisfaisants. De fait, une lecture détaillée fait apparaître une situation contrastée. Il s'y mêle d'évidents points forts, sur les services administratifs en ligne (sur ce critère, la France est 9e) et les capacités d'innovation (8e place), et des retards, notamment sur les priorités gouvernementales accordées aux TIC (43e place).

Eric Besson, nommé le 18 mars secrétaire d'Etat chargé du développement de l'économie numérique, devra donc s'atteler rapidement à la tâche.

Pays nordiques toujours en tête

Comme l'an dernier, le Danemark et la Suède montent sur les deux premières marches du podium. Depuis sept ans, les pays nordiques se maintiennent dans le Top 10, qui compte aussi la Finlande, l'Islande et la Norvège. L'étude souligne le niveau élevé de leur maturité technologique et les efforts constants de ces régions sur l'innovation et l'éducation. Irène Mia, du Forum économique mondial, co-auteur du rapport avec Soumitra Dutta, de l'Insead, pointe aussi dans ces économies « un marché et un environnement réglementaire propices aux affaires ».

Neuf pays européens (dont les Pays-Bas, le Royaume-Uni et l'Autriche) figurent au Top 15 du GITR 2007-2008. La Suisse, 1ère pour son réseau téléphonique et la maturité d'achat de ses habitants, grimpe à la 3e place (5e en 2006). Les Etats-Unis, 4e, gagnent trois places. Singapour est 5e (-2) et la Corée du Sud, 9e, fait un bond de 10 places. L'Estonie, qui a redoublé d'efforts pour s'approprier les nouvelles technologies, se maintient en 20e position.

L'Afdel en appelle au nouveau secrétaire d'état

Pour l'Afdel (association française des éditeurs de logiciels), le rapport 2007-2008 du Forum économique mondial ne fait que confirmer ce qu'elle a mis en avant dans son Pacte France Numérique, adressé en février dernier aux candidats aux élections municipales. « La France est en retard, tant du point de vue des infrastructures et de l'équipement, que de la capacité à générer des champions, indique son président Patrick Bertrand. Alors que nos voisins nordiques ont su mettre en oeuvre le cercle IT vertueux : une éducation de haut niveau, une forte adoption individuelle des TIC, un écosystème propice aux sociétés high tech... »

Le président de l'Afdel ajoute que les éditeurs français attendent beaucoup de l'entrée du développement du numérique au gouvernement, « la lettre de mission reçue par le secrétaire d'état Eric Besson plaçant avec raison l'industrie du logiciel au coeur des préoccupations ».
Pour Patrick Bertrand, l'effet levier des TIC sur la croissance fonctionne au ralenti en France. « Nous allons démontrer que le logiciel peut relancer significativement la machine », promet-il.

70 variables sur le contexte, la maturité et les usages

Pour établir leur classement mondial, l'Insead et le Forum économique mondial ont retenu quelque 70 variables réparties en trois grandes catégories : le contexte (marché, environnement politique et réglementaire, état des infrastructures), la maturité technologique (des individus, des entreprises et du gouvernement) et les usages. Ces critères englobent, par exemple, la part de la haute technologie dans les exportations, la capacité à trouver des investisseurs, ou encore, le délai requis pour créer une entreprise. Sont également pris en compte la législation relative à l'utilisation des TIC, le nombre de brevets déposés par million d'habitants dans l'année, la qualité de l'enseignement supérieur ou le coût des communications mobiles.

Améliorer l'accès au capital risque

Bien placée sur l'e-administration, devant le Royaume-Uni et le Japon, la France double également les Etats-Unis et Israël sur les capacités d'innovation, où elle se place juste derrière la Corée. Elle grimpe à la 1ère place pour la qualité de ses écoles de gestion, à la 3e pour la qualité de ses sites gouvernementaux, à la 5e pour le nombre de ses fournisseurs et au 12e rang pour le taux d'abonnés à l'Internet haut débit pour cent habitants. On la trouve 14e sur les achats gouvernementaux de produits high-tech.

En revanche, pour la facilité d'accès au capital risque, l'Hexagone n'est que 30e, de même que pour le niveau de collaboration entre universités et industriels. Et, elle chute à la 111e place pour le poids des contraintes réglementaires. D'une façon générale, le niveau de préparation des entreprises et du gouvernement semble avoir marqué le pas pour le pays en 2007, si l'on en croit le rapport, alors que la maturité technologique individuelle, elle, progressait.

A noter que le rapport 2007-2008 a été sponsorisé par Cisco.

En savoir plus

Accès à la consultation interactive du Global Information Technology Report 2007-2008 établi par le World Economic Forum et l'Insead :

- Pour la France
- Pour l'ensemble des 127 pays

Source : http://www.lemondeinformatique.fr/actualites/lire-la-france-au-21e-rang-mondial-dans-l-adoption-des-tic-25843.html

IDC : Linux, un marché de 50 milliards de dollars en 2011

Linux progresse à grands pas et ceci aussi bien en terme de fonctionnalités que de marché. Bonne nouvelle, les entreprises s'impliquent de plus en plus dans son développement

Une étude IDC, sponsorisée par la Linux Foundation, fait apparaître des informations intéressantes sur le futur du marché Linux. En 2007 il fut générateur de 21 milliards de dollars de chiffre d'affaires. Selon IDC, ce montant passera à 49 milliards de dollars en 2011.

Le gros des revenus de Linux est assuré par les déploiements en entreprise. Les marchés des bases de données et des ERP (Enterprise Resource Planning) sont parmi les plus concernés par ces nouvelles installations.

Cette bonne santé a un effet positif : plus de développeurs sont payés par les entreprises pour faire progresser le noyau Linux. Le noyau 2.6.11 (paru en mars 2005) avait regroupé le travail de 483 développeurs (environ 71 sociétés). Avec le 2.6.24 (paru fin janvier 2008), 1057 développeurs (environ 186 entreprises), ont participé au développement de ce projet communautaire.

Aussi, si le code source de Linux grossit d'environ 10% par an, l'accroissement du nombre de développeurs permet de maintenir un rythme de sortie d'environ 2,7 mois entre chaque version. La progression continue du noyau, associée à un rythme de publication soutenu, favorise encore plus l'adoption de cette technologie.

Parmi les entreprises qui participent le plus au développement du noyau, nous trouvons Red Hat, Novell et IBM, qui regroupent à eux trois 28,4% des modifications apportées. Les plus gros contributeurs restent cependant les développeurs isolés, qui agissent pour leur propre compte.

Source : http://www.silicon.fr/fr/news/2008/04/14/idc___linux__un_marche_de_50_milliards_de_dollars_en_2011

Du nouveau pour Linux, Apache, MySQL et PHP (LAMP)

Une série de dépêches touche le monde LAMP. Toujours plus présentes et bientôt encore plus efficaces, les solutions LAMP sont plus que jamais les chouchous du web

La plate-forme LAMP regroupe un système d'exploitation basé sur Linux, le serveur web Apache, la base de données MySQL et le langage PHP. La dernière étude de Nexen.net (mars 2008) donne des pistes sur la présence de certaines de ces technologies sur les serveurs web.

Apache 1 et 2 s'octroient près de 70% des parts de marché. PHP est également le langage le plus présent sur les serveurs web, avec un taux de pénétration de 33,4%. Les dernières versions majeures stables - la 4.4.8 et la 5.2.5 - représentent plus de 96% des installations de PHP. Ces deux technologies résistent donc bien face à IIS (25,9%) et ASP (21,2%).

MySQL, un autre élément essentiel des solutions LAMP, va prochainement évoluer. La version 5.1 de cette base de données fera son apparition dans quelques jours. Selon l'équipe de développement, les performances seront en hausse de 20%. D'autres nouveautés permettront d'améliorer les capacités d'évolution de la base de données, en particulier la répartition de la charge entre plusieurs serveurs.

Interrogé sur le futur de MySQL en tant que membre des solutions LAMP, Marten Mickos (ex CEO de MySQL AB, aujourd'hui employé de Sun Microsystems) se veut rassurant : selon lui, Linux reste toujours la plate-forme numéro un pour MySQL, devant Windows… et Solaris. Pas de SAMP à l'horizon donc.

Source : http://www.silicon.fr/fr/news/2008/04/14/du_nouveau_pour_linux__apache__mysql_et_php__lamp_