samedi 31 mai 2008

Opération Campus : sélection des 6 premiers projets

Le comité d’évaluation de l’Opération Campus, voulue par le Président de la République pour renforcer l’attractivité et la visibilité internationale de nos universités, s’est réuni le 28 mai pour examiner l’ensemble des 46 dossiers déposés.

A l’issue d’une journée de délibérations, il a proposé à Valérie Pécresse, ministre de l’Enseignement supérieur et de la Recherche de retenir tout ou partie des 6 projets suivants :

  1. le projet porté par le Pôle de Recherche et d’Enseignement Supérieur Université de Bordeaux sur le site Talence – Pessac – Gradignan
  2. le projet « Grenoble, Université de l’innovation » porté par l’Université Joseph Fourier, Université Pierre Mendès-France, Université Stendhal, Institut National Polytechnique de Grenoble (INPG), sous réserve que les futurs Présidents d’universités confirment leur engagement dans ce projet
  3. le projet « Lyon cité Campus » porté par le Pôle de Recherche et d’Enseignement Supérieur Université de Lyon, uniquement pour les campus Charles Mérieux et La Doua.
  4. le projet porté par les universités de Montpellier I, II et III, sous réserve que les futurs Présidents d’universités confirment leur engagement dans ce projet
  5. le projet porté par l’université de Strasbourg I, II et III (dont la fusion des universités est prévue au 1er janvier 2009), uniquement pour le campus « Historique – Esplanade »
  6. le projet porté par le Pôle de Recherche et d’Enseignement Supérieur de Toulouse uniquement pour les sites Rangueil et Toulouse-centre. (La rénovation de Toulouse Le Mirail étant d’ores et déjà prévue sur crédits budgétaires)
6 projets, 19 universités et 340 000 étudiants concernés

Valérie Pécresse a validé le choix du comité d’évaluation car les projets retenus remplissent pleinement les critères du cahier des charges de l’opération campus : ambition scientifique et pédagogique du projet, urgence de la situation immobilière, développement d’une vie de campus et caractère structurant pour un territoire. Ces projets impliqueront 19 universités, 17 écoles et tous les principaux organismes de recherche. Ils sont répartis dans 5 régions et concerneront 340 000 étudiants et 13 000 chercheurs publiants.

Les équipes retenues ont désormais 6 mois pour finaliser le projet immobilier, nouer les partenariats et monter un plan de financement général. Elles bénéficieront d’un accompagnement des services du ministère. Elles présenteront les détails de leur projet fin novembre 2008 au comité d’évaluation qui aura la charge de valider définitivement leur contenu avant leur lancement opérationnel.

La deuxième vague de l’appel à projets aura lieu sous un mois. Les équipes qui le souhaitent ont jusqu’au 27 juin pour déposer à nouveau un dossier. L’ensemble des 10 sites retenus sera connu vers la mi-juillet.

Valérie Pécresse fera un point sur l’Opération Campus au cours d’une conférence de presse jeudi 29 mai à 11h30. Elle reviendra sur les motivations de ce choix et sur les prochaines étapes.

Source : Communiqué de presse du Ministère de l’Enseignement supérieur et de la Recherche

vendredi 30 mai 2008

Mozilla espère 5 millions de téléchargements de Firefox 3 dès le premier jour

« Nous voulons établir un record du monde Guinness du logiciel le plus téléchargé en 24 heures. »

C'est avec cette accroche que Mozilla communique désormais sur le lancement prochain de la troisième version de son navigateur, Firefox. Des sites Web ont été montés pour l'occasion, sur le modèle des sites de don, afin d'inviter les utilisateurs à effectuer leurs promesses de téléchargement.

Mozilla explique qu'il s'agira d'un record homologué par le Guinness World Records. Mais comme il n'existe pas encore de catégorie de ce type - Mozilla a baptisé cela le « Download day » - l'enjeu n'est finalement pas très élevé. La fondation a confié à Lemondeinformatique.fr qu'atteindre les 5 millions de logiciels téléchargés en une journée constituerait déjà « un premier objectif ». Sachant que Mozilla revendique 175 millions d'utilisateurs, cela voudrait dire que moins de 3% d'entre eux se mobiliseraient pour ce record.

Cette annonce créatrice de buzz ne se double pas, en revanche, d'une information de la date de sortie de Firefox 3. Cela devrait se situer, selon la communication de Mozilla, « probablement dans la première moitié de juin ».

Source : http://micro.lemondeinformatique.fr/actualites/lire-mozilla-espere-5-millions-de-telechargements-de-firefox-3-des-le-premier-jour-2163.html

Assises du numérique : 27 pistes de travail pour un budget nul

Eric Besson, secrétaire d'Etat à l'Economie numérique, et Viviane Reding, Commissaire européen à la Société de l'information, ont donné, ce matin, le coup d'envoi des Assises du numérique

Au menu, une centaine d'ateliers organisés pendant le mois de juin et qui déboucheront sur la remise de propositions au président de la République.

Les annonceurs participent aux débats

Réunis dans le grand amphithéâtre de l'Université Paris Dauphine, les représentants des exécutifs français et européen ont rappelé l'enjeu de cet événement, qui devra déboucher sur la remise au président de la République d'un plan de développement de l'économie numérique à la fin du mois de juillet. Avec 6% du PIB français issus des TIC, la France est en retard sur les Etats-Unis ou la Corée. Même constat pour le niveau d'investissement en R&D. Le but des 27 axes de travail qui seront abordés lors de ces Assises sera donc de doper les usages des technologies de l'information pour « faire de la France une très grande puissance numérique, à l'égal des économies les plus dynamiques de notre planète », explique Eric Besson.

Environ 90 ateliers de travail couvrant « toutes les dimensions du numérique » seront ainsi organisés pendant le mois de juin dans toute la France et sur le Web. Ils réuniront politiques, citoyens, consommateurs, blogueurs et entreprises. Notamment les partenaires de la manifestation, classés Platinum et Gold en fonction de leur contribution, parmi lesquels on retrouve Microsoft, HP, IBM, etc. Les annonceurs seront donc également parties prenantes aux débats.

L'accès aux réseaux constitue la première piste de travail. Rappelons l'engagement pris par Nicolas Sarkozy de connecter 100% des ménages au haut débit avant la fin de son mandat (pour l'heure, d'après les chiffres de l'Arcep et de Médiamétrie, la moitié environ des ménages français serait connectée à Internet, essentiellement en haut débit). Pour y parvenir, Eric Besson suggère plusieurs pistes de travail, comme le développement du haut débit mobile et du très haut débit, ou l'équipement de 70% des foyers en ordinateurs à l'horizon 2010.

Vers un Conseil national du numérique

Parce que « le numérique représente une révolution de l'économie du savoir équivalente à celle de l'imprimerie », le secrétaire d'Etat suggère de mieux prendre en compte les contenus numériques dans les politiques publiques. Une idée partagée par Viviane Reding, selon laquelle « les contenus créatifs sont le moteur de la croissance des réseaux fixes et mobiles ». Dans cette optique, Eric Besson propose la création d'un Conseil national du numérique, pensé comme une « enceinte globale de concertation » regroupant tous les acteurs du Web et chargée d'élaborer des codes de bonne conduite ainsi que de les faire respecter. A la fois stratège et gendarme, cette institution remplacerait le Forum des droits sur Internet ainsi que d'autres organisations (Conseil supérieur de la télématique, Conseil stratégique des technologies de l'information, etc.)

Les usages sont également au coeur des débats, avec pour objectif la multiplication des domaines dans lesquels le numérique intervient. C'est notamment le cas de l'éducation (objectif de 100% des documents pédagogiques disponibles en version numérique, enseignement à distance pour les salariés en activité...), de la santé, l'e-commerce et l'e-administration (unifier les services publiques en ligne, développer la dématérialisation, etc.)

De grandes ambitions mais pas de budget

Si le programme peut sembler ambitieux, il ne pèsera pas sur les finances du pays. Eric Besson reconnaît en effet qu'il « ne dispose pas de budget. Ce plan ne devrait rien coûter à l'Etat, certaines mesures devraient même être accélératrices de croissance et rapporter ». On imagine cependant mal comment certaines des mesures soumises au débat pourraient être mises en place sans occasionner de dépense (numérisation des procédures pénales, déploiement de la carte d'identité électronique, formation en ligne pour les enseignants, etc.).

Ce manque d'investissement de l'Etat n'est, à en croire les députés socialistes Patrick Bloch et Christian Paul, qu'un prolongement des travers d'aujourd'hui. Présents aux Assises du numériques, les deux édiles dénoncent « la mauvaise pente » prise par la France en matière d'IT. Ils regrettent notamment que « l'Etat ne mette pas un euro » dans le développement du haut et très haut débit et que la loi de modernisation de l'économie « ne donne pas l'impulsion nécessaire ».

D'autres critiques fusent du côté de l'April. L'Association de promotion et de défense du logiciel libre dénonce la brièveté des Assises au regard du nombre de thèmes qui y seront abordés. Elle regrette aussi l'absence de certains acteurs, citant l'exemple de la table ronde sur les enjeux de la culture et du loisir numérique, qui se tiendra sans représentant des consommateurs et sans association.

Source : http://www.lemondeinformatique.fr/actualites/lire-assises-du-numerique-27-pistes-de-travail-pour-un-budget-nul-26211-page-1.html

jeudi 29 mai 2008

SAP affirme le succès de sa maintenance facturée 22% du prix du logiciel

Exit le contrat de maintenance à 17% chez SAP. Les nouveaux clients n'ont d'autre choix qu'un contrat à 22% du prix d'achat de leur logiciel

SAP se dit convaincu que ne plus proposer que son contrat de maintenance le plus cher à ses nouveaux clients répond tout à fait à leurs attentes. On peut toutefois se demander si ne plus avoir le choix entre un contrat Enterprise facturé 22% du prix du logiciel et la version Basic seulement facturée à 17% ne répond pas plus aux attentes de SAP qu'à ses clients.

C'est l'avis général des commentaires qui suivent l'article sur ce sujet publié sur le blog Business Technology du Wall Street Journal. L'un d'entre eux, attribué à un analyste de Forrester Research souligne que la marge brute sur la maintenance oscille entre 60% et 85%. Un autre fait remarquer que l'augmentation de SAP intervient juste au moment où la vague d'externalisation en Asie permet de réduire encore les coûts de ces prestations. Un autre encore, contrecarre l'argument selon lequel le taux de 22% est déjà pratiqué par Oracle pour sa maintenance en rappelant que SAP vend nettement plus cher ses logiciels...

SAP affirme que près de 200 clients ont déjà adhéré à son contrat Enterprise Support. L'éditeur se justifie aussi en faisant appel au concept de "modèle de support holistique", nécessité notamment par les nouvelles applications composites intégrant des solutions SAP et non SAP. D'autres types de contrats de maintenance, comme la Software Assurance, que Microsoft conseille très fortement à ses grands comptes, ont soulevé également des réactions lors de leur mise en place.

Toutefois, la hausse imposée par SAP suscite aussi des vocations. En particulier celle de Rimini Street. Ce spécialiste de la tierce maintenance a annoncé au début du mois qu'en 2009, il ajouterait à son offre le support des produits SAP à celui de ceux de Siebel, PeopleSoft et JD Edwards, désormais tous chez Oracle. Rimini Street affirme que malgré des prestations supérieures à celles du support de SAP, ses tarifs sont moitié moindre. De plus, la société s'engage à supporter les anciennes versions des PGI de SAP plus longtemps que leur éditeur.

Rimini Street a été fondé par Seth Ravin, l'homme qui a vendu la société de tierce maintenance TomorrowNow à SAP qui s'en mord les doigts. Cette société, poursuivie par Oracle pour espionnage industriel, perd aussi ses clients. Seth Ravin affirme qu'ils auront tous rejoint la clientèle de Rimini Street d'ici 18 mois.

Source : http://www.lemondeinformatique.fr/actualites/lire-sap-affirme-le-succes-de-sa-maintenance-facturee-22-du-prix-du-logiciel-26196.html

Une interface multipoint pour Windows Seven

Windows Seven bénéficiera d'une interface tactile, à mi-chemin entre le multitouch embarqué sur les Mac Book Air et le Surface de Microsoft

Jusqu'à présent, la communication de l'éditeur sur son prochain système d'exploitation s'était résumée à une micro-polémique entre Bill Gates et le reste de la société sur la date de lancement du produit. Aucune véritable information n'avait donc filtré, et les rares rumeurs concernant Seven faisaient état d'un noyau totalement refondu.

Microsoft brise le silence et estime venu le temps des premières confidences. L'éditeur annonce ainsi que son OS supportera l'interface multitouch, basée sur la technologie mise au point pour la table tactile Surface présentée l'an dernier.

Une démonstration de cette fonctionnalité est en ligne sur le blog consacré par l'éditeur à Windows Vista. Contrairement au multitouch proposé par Apple sur son Mac Book Air, qui s'utilise à partir du pavé tactile, celui du groupe de Redmond permet de poser ses doigts sur l'écran. Il est alors possible de manipuler des photos, les agrandir, les faire défiler ou pivoter. L'utilisateur peut également déplacer des icones, choisir un item dans un menu déroulant ou jouer de la musique sur un clavier virtuel.

Selon Microsoft, les développements réalisés pour l'architecture de Vista et Windows Server 2008 serviront de base de travail pour Seven. L'un des buts de l'éditeur étant de permettre le fonctionnement de Windows 7 sur les mêmes machines que celles qui accueillent actuellement Vista. Les applications tournant sur Vista devraient donc fonctionner sur Seven.

Dans la même logique, le noyau de Vista « restera au coeur du développement des futures innovations de Windows 7 ». Une information qui vient partiellement contredire l'assertion selon laquelle Microsoft désirait réécrire entièrement le kernel de son prochain OS afin de l'alléger drastiquement.

Source : http://micro.lemondeinformatique.fr/actualites/lire-une-interface-multipoint-pour-windows-seven-2162.html

L'Europe souligne l'importance et l'urgence d'adopter IPv6

La Commission européenne invite fortement les Européens à adopter la version 6 du protocole IP. En effet, la très grande majorité des adresses en IPv4 sont aujourd'hui attribuées

Fin janvier 2008, l'Iana (Internet Assigned Numbers Authority) ne disposait plus que de 16 % du «stock» total d'adresses IPv4, soit environ 700 millions d'adresses. Un épuisement de ce stock est prédit pour 2010-2011.

Une étude financée par la Commission a montré l'intérêt d'IPv6 pour un certain nombre de segments de marché, notamment les réseaux domestiques, la gestion des bâtiments, les communications mobiles, les secteurs de la défense et de la sécurité et l'industrie automobile.

"Une adoption rapide et efficace d'IPv6 permettrait à l'Europe d'innover et de se placer au premier plan en ce qui concerne les progrès futurs de l'Internet." Notre continent concentre 49% des adresses IPv6 émises. Mais, l'Asie, et le Japon en particulier, investit de plus en plus dans le domaine.

Moins de la moitié des FAI européens sont prêts à proposer IPv6 et la Commission déplore l'absence quasi totale de prise en compte d'IPv6 par les fournisseurs de contenus et de services (les sites Web, la messagerie instantanée, le courrier électronique, le partage de fichiers et la VoIP).

Source : http://www.lemondeinformatique.fr/actualites/lire-l-europe-souligne-l-importance-et-l-urgence-d-adopter-ipv6-26194.html

mercredi 28 mai 2008

Atempo Annonce le Support de Mac OS et de Linux avec la Nouvelle Version de Live Backup

Atempo, éditeur de logiciels de solutions de protection de données et d'archivage, a annoncé une nouvelle version de sa solution phare

Live Backup 3.2 est une nouvelle solution de protection continue des données pour les ordinateurs de bureau et ordinateurs portables en environnement hétérogène sur sites et à distance. Cette nouvelle version fournit aux administrateurs de stockage des niveaux de flexibilité et d'évolutivité accrus. Live Backup 3.2 offre également des nouvelles fonctionnalités puissantes d'administration et de reporting et surtout marque la première offre d'Atempo de la technologie CDP pour les environnements Mac OS X et Linux.

Live Backup comprend maintenant de multiples niveaux d'administration. Ceci offre la possibilité d'avoir différents profils d'administrateurs leur permettant de définir leurs propres règles de sauvegarde au niveau d'un service ou d'un département tandis qu'un “super” administrateur peut toujours décider des politiques de protection de données à l'échelle de l'entreprise. Cette nouvelle fonctionnalité est cruciale, notamment pour les grandes entreprises, car elle donne de l'autonomie aux différents services pour gérer les politiques de sauvegarde des données en fonction de leurs besoins propres, améliorant ainsi la répartition des coûts et la facturation.

Ces fonctionnalités permettent aussi aux fournisseurs de services d'offrir une solution SaaS à plusieurs clients finaux sur un seul serveur, tout en garantissant que chaque client bénéficie toujours de pouvoirs autonomes d'administration et a la faculté de mettre en place des politiques de sauvegarde. L'évolutivité de Live Backup, grandement améliorée dans cette version, facilite également ce modèle de vente en réduisant le nombre de serveurs requis pour des utilisateurs supplémentaires.

« Live Backup 3.2 est une nouvelle étape importante dans la stratégie d'Atempo visant à offrir des solutions plus puissantes et complètes pour la protection et l'archivage de données en environnements hétérogènes, » déclare Karim Toubba, Vice-Président Marketing et Product Management d'Atempo. « Live Backup 3.2 ouvre la porte à Atempo pour pénétrer de nouveaux marchés à travers des modèles de vente innovants. Nous sommes enthousiastes à l'idée de travailler plus étroitement avec nos partenaires fournisseurs de services en offrant la technologie CDP à travers le modèle SaaS. De plus, Live Backup 3.2 élargit son support aux plates-formes stratégiques que représentent Mac OS et Linux. »

Avec le support de Windows, Mac OS et Linux, Live Backup offre une protection continue des données qui prend en compte et suit les modifications des données en temps réel, sur n'importe quel ordinateur de bureau ou portable connecté au réseau. Ce support de plates-formes hétérogènes permet désormais à Live Backup de protéger dans sa globalité tous les ordinateurs de bureau et portables d'une entreprise.

La facilité d'utilisation du logiciel ainsi que les fonctionnalités dédiées aux utilisateurs sont conçues pour les PME/PMI et grandes entreprises qui nécessitent une solution de sauvegarde de leurs postes de travail avec une supervision minime du service informatique et qui n'interfèrent pas avec la productivité de l'utilisateur. Live Backup optimise le besoin de bande passante et d'espace de stockage, et travaille de manière transparente, sauvegardant les données automatiquement quel que soit l'endroit où l'ordinateur se trouve, au siège social, dans un bureau distant ou via une connexion internet sécurisée. Le logiciel offre de nombreuses capacités de restauration, que ce soit une restauration de type fichier par l'utilisateur lui-même à la suite d'une perte ou d'une suppression accidentelle ou bien la restauration complète d'un système.

La disponibilité de Live Backup 3.2 est prévue pour juin 2008 sur Windows et juillet 2008 pour les plate-formes Mac et Linux. Pour plus d'informations, visitez http://fr.atempo.com/products/livebackup

A propos d’Atempo

Atempo est un fournisseur de solutions puissantes de protection de données et d'archivage pour les entreprises en environnement hétérogène. Qu'il s'agisse d'un important data center, de sites distants ou encore d'un workgroup départemental, Atempo offre des solutions de sauvegarde et de restauration haute performance ; des solutions d'archivage et de sécurité pour Windows, Mac OS, Linux, Unix, iSeries et les principales bases de données et applications. Pour une protection en temps réel des données des PCs et des ordinateurs portables, la technologie de sauvegarde en continu (CDP) d'Atempo plusieurs fois primée, permet de prendre en compte les changements au fur et à mesure qu'ils sont effectués et de restaurer les informations telles qu'elles étaient quelques secondes avant que la perte de données ou un crash du disque ne se produisent. Atempo a plus de 3000 clients dans le monde et distribue et supporte ses produits grâce à son réseau de VARs et d'Alliances Stratégiques.

Pour en savoir plus sur Atempo, visitez le site Web http://fr.atempo.com

Source : communiqué de presse d'Atempo

Rumeur : la sortie de Windows 7 est confirmée pour 2010

Le prochain système d'exploitation de Microsoft pourrait mettre l'accent sur la virtualisation

Microsoft a confirmé de façon officieuse la sortie de Windows 7 pour 2010. La compagnie se laisse cependant la possibilité de présenter son produit « dès que le niveau de qualité souhaité sera atteint ».

Le blog Wepokers offre une série de copies d'écran de l'interface du prochain OS de la firme de Redmond. Leur disparité en terme d'interface laisse cependant à penser qu'il s'agit - au mieux - d'un work in progress ou - au pire - de photomontages.

Quelques informations ont également filtré quant aux produits qui seront distribués. La mouture desktop de Windows 7 sera ainsi disponible en versions 32 bits et 64 bits. Windows Server 7 serait également en cours de développement. La société se garde bien cependant de dévoiler d'autres informations sur son futur système d'exploitation.

Un buzz s'est créé sur Internet suite à une annonce de recrutement émise par Microsoft. La compagnie chercherait ainsi des développeurs qui implémenteraient (ou amélioreraient) la prise en charge native du format de disque dur virtuel VHD (Virtual Hard Disk) au sein de Windows 7.
Il serait ainsi possible de gérer finement les disques virtuels dans ce système d'exploitation. Nous pouvons également imaginer que Windows 7 pourra être installé dans un disque VHD, à partir duquel il pourra démarrer indifféremment en mode virtualisé (sous Hyper-V) ou de façon classique (c'est à dire sans émulation).

Source : http://www.silicon.fr/fr/news/2008/05/27/rumeur_la_sortie_de_windows_7_est_confirmee_pour_2010

L'Etat promet de rémunérer ses stagiaires à hauteur du SMIC

Mieux vaut tard que jamais

Quatre mois après avoir imposé une gratification minimale des stages dans le secteur privé, l'Etat est désormais décidé à se montrer lui-même exemplaire. Hier, Valérie Pécresse, ministre de l'Enseignement supérieur, Eric Woerth, ministre du Budget et de la Fonction publique, et André Santini, secrétaire d'Etat à la Fonction publique, ont annoncé une série de mesures visant à « revaloriser » les stages effectués dans les administrations.

L'enjeu est de taille : dans le cadre de la réforme de l'université, Valérie Pécresse va instaurer un stage obligatoire en licence et compte sur la fonction publique pour accueillir un nombre croissant d'étudiants. Difficile, dès lors, de ne pas attendre de l'Etat employeur ce qu'il impose aux entreprises. C'est pourquoi, comme dans le privé, chaque stagiaire devra à l'avenir bénéficier d'une convention, d'un tuteur et d'un vrai suivi. De même, les administrations viendront, comme les entreprises, présenter leurs offres de stage aux étudiants sur le site même des universités, dans le cadre de forums des stages.

Surtout, alors que de nombreux stages ne sont aujourd'hui pas payés du tout, l'Etat promet des efforts très considérables. Deux situations sont à distinguer. Les stages dits d'« observation », effectués dans une optique de découverte mais sans mission précise ni réelle charge de travail, seront au moins « défrayés » (remboursement de titres de transports, accès aux restaurants administratifs, etc.).

« Même traitement »

Quand le stage consiste, au contraire, à réaliser une tâche « clairement identifiée » ou que l'intéressé est investi de « véritables responsabilités », le stagiaire « bénéficiera du même traitement qu'un véritable agent public ». Il devra donc être payé « au moins sur la base du SMIC », et ce « quelle que soit la durée du stage ». En comparaison, les stagiaires du privé n'ont obtenu, début février, qu'une gratification minimale de 30 % du SMIC pour les stages de trois mois ou plus.

Le coût de cette mesure n'est pas évalué, le gouvernement jugeant « impossible » d'estimer le nombre de stages effectués chaque année dans la fonction publique. Une concertation doit désormais être mise en place avec les syndicats sur la mise en oeuvre de ces orientations, qui devraient probablement entrer en vigueur l'année prochaine au plus tard.

Source : http://www.lesechos.fr/info/france/4733036.htm

mardi 27 mai 2008

Google Earth simule le réchauffement de la planète

Les scientifiques nous alertent régulièrement sur les dangers du réchauffement climatique mais il est parfois difficile de se rendre compte des conséquences de ce phénomène

Pour sensibiliser encore plus le grand public, les Anglais du Met Office (institut météorologique) et du centre de recherche britannique sur l'Antarctique ont développé deux extensions pour le logiciel Google Earth.

Le premier se présente sous la forme d'un calque de dégradés de couleur qui représente les changements de température. Pour mieux comprendre l'impact à moyen terme, un curseur, situé en haut de la fenêtre du logiciel, simule les prévisions sur le réchauffement de la planète jusqu'en 2100. Si le pôle Nord apparaît comme le plus touché, les conséquences aux quatre coins du globe sont nombreuses : sécheresse, hausse des températures dans les grandes villes, végétation en péril...

Le British Antartic Survey met, quant à lui, en lumière ce danger au travers du prisme de l'Antarctique, illustré par des photos (fonte des glaces, recul de la banquise, etc.).
Malheureusement, les textes de ces deux extensions sont uniquement disponibles en anglais.

Source : http://www.lemondeinformatique.fr/actualites/lire-google-earth-simule-le-rechauffement-de-la-planete-26172.html

L'École Centrale Paris collabore avec Business Objects

Pour l'un c'est une bonne manière de découvrir de nouveaux talents. Pour l'autre c'est une opportunité de démontrer son savoir faire en terme de 'management'

Business Objects (qui appartient à SAP) et l'École Centrale Paris vont créer une chaire d'enseignement et de recherche, dédiée à l'informatique décisionnelle, aussi connue sous le nom de Business Intelligence (la fameuse « BI »).

Ce secteur très important vise à collecter puis analyser les fondamentaux d'une entreprise, afin de faciliter la mise en place d'une stratégie. Ce projet est lancé à l'initiative de l'ARC (Academic Research Center), le centre de recherche académique de Business Objects, lancé en 2007.

Hervé Couturier, Senior vice-président produits de Businesss Objects (lui-même diplômé de l'École Centrale Paris) commente cette annonce : "Nous travaillons dans la haute technologie, et nous connaissons le potentiel des jeunes étudiants des Grandes Écoles, et notamment ceux de Centrale Paris. À travers ce pont qui relie le monde académique et le monde de l'entreprise, nous souhaitons les sensibiliser à nos technologies et in fine recruter les plus brillants pour développer de nouveaux produits de Business Intelligence et accompagner notre croissance."

Pour l'École Centrale Paris, c'est également une excellente occasion de montrer son savoir faire en terme de gestion des entreprises et des systèmes d'information. L'alliance est donc stratégiquement avantageuse pour les deux parties.

Une équipe d'enseignement et de recherche sera mise en place prochainement. Un budget de 1,5 million d'euros a été débloqué pour financer les cinq premières années d'activité de cette équipe.

Source : http://www.silicon.fr/fr/news/2008/05/26/l_ecole_centrale_paris_collabore_avec_business_objects

Microsoft clôt le chapitre de sa bibliothèque virtuelle

De guerre lasse, la firme de Redmond quitte le champ de bataille de la numérisation des livres

Microsoft jette l’éponge. L’éditeur met un terme, selon l’agence de presse AP, à son entreprise de numérisation du patrimoine littéraire mondial. Comme son meilleur ennemi, Google, la firme de Redmond s’était lancée dans une vaste compagne de numérisation de livres pour peser, une fois de plus, contre le géant des moteurs de recherche.

A cet effet, Microsoft avait intégré une organisation, l’Open Content Alliance, menée par Yahoo. Le projet MSN book search, lancé en 2006, avait pour but de prendre l’exact contre-pied de Google en proposant des ouvrages libres de droits et avec l’accord des éditeurs. Pour mémoire, le géant de Mountain View n’avait pas hésité à proposer la consultation d’ouvrages numérisés, toujours protégés par les droits d’auteurs. L’initiative n’avait pas manqué de susciter l’ire des ayants droits.

Près de deux ans plus tard, la situation est bien différente. Google a confirmé son leadership dans le search. Tenir tête au titan de la recherche dans une course effrénée à la copie de projet n’a plus grand sens.

Microsoft devrait fermer deux sites de recherches de contenus bibliographiques au début du mois de juin, puis rediriger vers d’autres sites les requêtes effectuée depuis son outil de recherche. Microsoft devrait également donner aux éditeurs l’ensemble des contenus numérisés à savoir, 750.000 livres ainsi que 80 millions d’articles de journaux.

D’après un post publié sur son blog, Satya Nadella, vp chez Microsoft, chargée du search et de la publicité, explique que le groupe adopterait désormais une nouvelle stratégie pour ses contenus. Rappelons que le premier éditeur mondial a annoncé le lancement prochain d’un nouveau service Live Search Cashback. Grâce à ce nouvel outil, les utilisateurs qui effectueraient des achats depuis Live Search recevrait une compensation financière. Cette approche sera-t-elle assez puissante pour arracher quelques usagers des griffes de Google ? Pas sûr.

De son côté, la firme de Mountain View poursuit son petit bonhomme de chemin. Au mois d’avril dernier, la firme a conclu avec l'université du Michigan un accord aux termes duquel 7,5 millions d'ouvrages devraient être numérisés.

Source : http://www.silicon.fr/fr/news/2008/05/26/microsoft_clot_le_chapitre_de_sa_bibliotheque_virtuelle

lundi 26 mai 2008

Le support d'ODF par Microsoft est salué, mais avec prudence

La Commission Européenne a pris acte, dans un communiqué publié hier, des efforts engagés par Microsoft en faveur d'une « véritable » interopérabilité entre applications

Mais elle compte bien s'assurer que l'engagement de l'éditeur à supporter le format bureautique ODF sera effectivement suivi d'effets. Cette déclaration fait suite à l'annonce, par Microsoft, du prochain support dans sa suite bureautique Office du format ODF, standard ISO rival de son propre format Office OpenXML (lui-même standardisé par l'ISO en avril). L'éditeur a en outre indiqué qu'il participerait au comité technique de l'OASIS et au groupe de travail ISO/IEC qui suivent les évolutions d'ODF.

La Commission Européenne a par ailleurs indiqué qu'elle comptait évaluer les impacts que cet engagement pourrait avoir sur les choix des utilisateurs. Rappelons que Bruxelles a ouvert en janvier dernier deux enquêtes sur de supposés agissements anti-concurrentiels de l'éditeur de Windows.

Un point d'appui pour migrer vers OpenOffice ou Linux

A cet égard, le support d'ODF dans la suite bureautique Office 2007 (il est promis pour le premier semestre 2009 avec l'arrivée du Service pack 2) constitue effectivement un signe de bonne volonté de Microsoft. Pour le porte parole d'OpenOffice.org, John McCreesh, par exemple, la possibilité de pouvoir sauvegarder ses fichiers au format ODF depuis Microsoft Office donnera aux utilisateurs la tranquillité d'esprit pour migrer vers une suite Open Source comme OpenOffice.

L'antenne européenne de la Free Software Foundation a aussi accueilli positivement l'annonce, estimant que le support d'ODF dans Office peut contribuer à faire progresser le système d'exploitation Linux. Encore faut-il, bien entendu, que le format soit géré par Office avec des performances équivalentes à celles qu'offrent les suites concurrentes. Microsoft a en effet déjà été montré du doigt pour utiliser certains standards en y apportant de subtiles modifications qui gênent leur bonne utilisation.

Une excellente nouvelle pour l'Afdel

En France, Loïc Rivière, délégué général de l'Afdel (association française des éditeurs de logiciels), a estimé que la décision de Microsoft de prendre en charge ODF et PDF dans Office était une « excellente nouvelle pour les utilisateurs que sont les éditeurs de logiciels ». Il juge qu'elle « s'inscrit dans une dynamique globale en faveur de l'interopérabilité » à laquelle Microsoft avait déjà souscrit.

Enfin, Microsoft a précisé mercredi dernier qu'il n'intégrerait pas la version de son format OOXML standardisé par l'ISO (29500) dans Office 2007, mais dans la version ultérieure de sa suite, Office 14. Cela signifie qu'ODF va disposer de quelques mois d'avance sur l'OOXML standard 29500 puisque Microsoft n'a pas encore fixé de date pour la sortie d'Office 14.

Source : http://www.lemondeinformatique.fr/actualites/lire-le-support-d-odf-par-microsoft-est-salue-mais-avec-prudence-26140.html

Red Hat et Novell mettent leurs distributions Linux à jour

Une foule de nouveautés (virtualisation en tête) pour ces deux distributions Linux destinées aux professionnels

Red Hat et Novell partagent une excellente réputation dans le domaine des distributions Linux professionnelles. Hasard du calendrier, les deux compagnies mettent à jour leurs offres cette semaine. La virtualisation est au cœur de ces annonces.

Red Hat Enterprise Linux 5.2

La Red Hat Enterprise Linux 5.2 (RHEL) met l'accent sur la virtualisation, avec un support des machines comprenant jusqu'à 64 processeurs physiques et 512 Go de mémoire. Les noyaux Linux virtualisés peuvent maintenant faire varier la fréquence du processeur, afin de réduire la consommation électrique du serveur physique.

Un nouveau pilote asynchrone pour le noyau Linux permet de gérer les périphériques de cryptographie. Ils pourront être mis à profit pour chiffrer les partitions d'un disque, ou les flux réseau. Le chiffrement des mots de passe pourra par ailleurs s'effectuer en SHA-256 ou SHA-512.

Le support de l'IPv6 est également amélioré, y compris celui du protocole SNMP (Simple Network Management Protocol). La compagnie pense aussi aux centres de données en permettant à la distribution de démarrer sur un disque distant, via l'iSCSI.

Dans le domaine « desktop », la RHEL 5.2 supporte mieux les ordinateurs portables, en particulier leurs fonctions d'économie d'énergie. Les pilotes pour les cartes graphiques sont aussi mis à jour. Enfin, certains logiciels sont remplacés par des moutures plus récentes : Evolution 2.12.3, Firefox 3, OpenOffice.org 2.3.0 et Thunderbird 2.0.

SUSE Linux Enterprise 10 SP2

Novell sort son Service Pack 2 (SP2) pour la SUSE Linux Enterprise 10 (SLE). Là aussi, la compagnie concentre ses efforts sur la virtualisation, avec l'intégration de Xen 3.2. Il supporte les systèmes d'exploitation Windows Server 2003 et 2008, ainsi que la migration « en cours de fonctionnement » des machines virtuelles fonctionnant avec ces OS.

La SLE Desktop 10 SP2 propose quelques améliorations concernant le support des partitions au format NTFS et l'intégration à Microsoft Active Directory. OpenOffice.org passe en version 2.4. La mouture proposée par Novell offre un filtre expérimental pour le format de fichiers Office Open XML (OOXML).

Le Subscription Management Tool (SMT) permet de faciliter le déploiement des mises à jour, mais aussi la configuration des options de sécurité d'un large parc de machines. Cet outil gère tous les postes pourvus de la SLE 10 SP2, quelque soit la version utilisée (Server, Desktop, Point-of-service, Terminal).

Mise à jour plus spécifique, les fonctions temps réel de la SLE Real Time 10 SP2 sont en progrès, avec des temps de latence réduits. Enfin, la compagnie offre un kit de développement (SDK) qui permettra de créer des versions personnalisées de la SLE. C'est une avancée intéressante pour ceux qui souhaitent mettre en place des applicances.

Le SP2 pour les distributions Linux SLE Serveur 10 et SLE Desktop 10, ainsi que le SDK, sont disponibles dès aujourd'hui. SLE Real Time 10 SP2 et SMT ne seront distribués qu'au courant du mois d'août.

Source : http://www.silicon.fr/fr/news/2008/05/23/red_hat_et_novell_mettent_leurs_distributions_linux_a_jour

vendredi 23 mai 2008

Office supportera l'ODF et le PDF !

ODF, PDF et XPS seront tous trois supportés par Office 2007 SP2. Pour l'OOXML tel que normalisé par l'ISO/IEC, il faudra cependant attendre Office 14

Microsoft revient avec une nouvelle annonce touchant le domaine de l'interopérabilité. La compagnie prévoit ainsi d'intégrer de nouveaux formats de documents dans le Service Pack 2 (SP2) d'Office 2007. Ils seront accessibles sous Word, Excel et PowerPoint.

Les utilisateurs pourront ouvrir, modifier et enregistrer des fichiers au format ODF 1.1 (Open Document Format). L'enregistrement pourra également s'effectuer en XPS (XML Paper Specification), PDF 1.5 (Portable Document Format) et PDF/A-1 (PDF for Archive, ISO 19005-1). Notez que le PDF/A est spécifiquement destiné à l'archivage. Il se montre essentiel pour les entreprises.

"Nous nous sommes engagés à fournir aux utilisateurs d'Office une meilleure interopérabilité et un plus grand choix entre les formats de documents et les applications qui les utilisent", a déclaré Chris Capossela, vice-président de Microsoft Business Division. "En élargissant l'ouverture de nos produits et en participant activement au développement et à la maintenance de formats de documents standards, nous créons des opportunités pour les développeurs et les concurrents, y compris les membres des communautés open source, pour innover et apporter de la valeur ajoutée aux clients."

Cette nouvelle a d'ores et déjà été saluée par l'AFDEL (Association Française Des Éditeurs de Logiciels), Novell et le PSC Group.

Microsoft ajoute à ceci une API spécifique qui permettra aux développeurs de créer leurs propres filtres d'import/export et de les intégrer dans les menus des applications de la suite bureautique. Mieux, l'utilisateur pourra choisir n'importe lequel de ces formats comme format de document par défaut.

PDF ou l'universalité avant tout

Bernard Ourghanlian, directeur technique France de Microsoft, nous précise la stratégie adoptée pour le choix des versions de ces formats. Pour le PDF, quoique la mouture 1.7 soit en cours de normalisation, la compagnie se focalise sur la version 1.5, qui est parfaitement supportée par les lecteurs PDF du marché.

Le but est donc ici de produire des documents que tout le monde pourra relire sans problème. Exit le support des fonctions additionnelles, comme les formulaires ou le chiffrement. La firme exploite toutefois au maximum les possibilités du PDF 1.5 : liens internes, signets, balises de structuration des documents, tout sera mis en œuvre pour permettre une navigation simple au sein du document généré.

Coller à l'actualité de l'ODF

Dans le domaine de l'ODF, c'est le format 1.1 qui sera adopté, alors même qu'il n'est pas (et ne sera peut-être jamais) normalisé. "Pour les formats de documents révisables, les besoins sont différents. Il est nécessaire d'en supporter les dernières versions, car nos clients veulent pouvoir importer tous leurs fichiers sans problème", précise Bernard Ourghanlian.

La stratégie est donc ici différente. Microsoft souhaite que tous les documents ODF puissent être lus et écrits sans souci, ce qui impose ce choix de l'ODF 1.1, plutôt que celui de l'ODF 1.0 (norme ISO/IEC 26300). C'est également une condition nécessaire pour une parfaite interopérabilité entre Office 2007 et le futur OpenOffice.org 3.0.

Notez que Microsoft va également rejoindre le comité technique OASIS, qui travaille sur la prochaine version de l'ODF.

ISO/IEC OOXML : pas avant Office 14

L'intégration du format OOXML tel que défini par l'Ecma 376, est déjà effective dans Office. Pour la norme IS 29500, il faudra attendre Office 14. La raison de ce choix est simple. Le SP2 d'Office 2007 est prévu pour la première moitié de 2009, avec une première version bêta attendue dans un futur très proche.

Microsoft n'a donc tout simplement pas le temps d'implémenter ce format dans Office 2007 SP2. Pour Bernard Ourghanlian "la porte n'est pas fermée pour les anciennes versions d'Office, qui pourraient profiter d'un compatibility pack dans le futur. Aucune décision n'a cependant encore été prise dans ce domaine".

Notez que lors de la création de nouveaux documents OOXML (ISO/IEC), c'est l'implémentation « Strict » de l'IS 29500 qui sera utilisée. C'est un des prérequis de la norme, la partie « Transitional » ne pouvant servir (au besoin) que lors de la conversion de documents utilisant initialement un autre format. Le groupe de travail SC34 de l'ISO/IEC a par ailleurs déjà précisé que la partie transitionnelle pourrait disparaître lors d'une future évolution de la norme.

Source : http://www.silicon.fr/fr/news/2008/05/22/office_supportera_l_odf_et_le_pdf__

jeudi 22 mai 2008

Les gagnants français de l'Imagine Cup 2008

Encore un bon cru pour la session française de l'Imagine Cup. Le respect de l'environnement aura été au centre de nombreux projets

C'est le 16 mai dernier, au musée de l'Homme de Paris, que les lauréats français de la sixième édition de l'Imagine Cup ont été présentés au public. Ce championnat mondial, organisé par Microsoft, vise à primer les projets numériques les plus innovants.

Cette année, plus de 100 pays et plus de 200.000 étudiants (dont 13.000 en France) ont participé à ce concours. En voici les différentes catégories : algorithmes, conception de logiciels, création de jeux vidéo, design d'interfaces, développement embarqué, projet Hoshimi (robots), système et réseaux, photographie et court-métrage.

Dans le domaine de la conception de logiciels (la catégorie la plus importante du concours), l'équipe Smart Cooking (Supinfo Montpellier / École des Gobelins) remporte le premier prix avec sa solution de cuisine intelligente. Ce projet sera présenté lors de la finale mondiale, qui prendra place du 3 au 8 juillet 2008, au siège de l'Unesco, à Paris.

« Nous sommes très fiers d'accompagner ces étudiants pour cette sixième édition d'Imagine Cup. L'éducation joue un rôle-clé dans la transmission du savoir-faire technologique, particulièrement en France. D'ailleurs le pays arrive deuxième derrière la Chine en termes de médailles gagnées depuis que la compétition existe », déclare Éric Boustouller, président de Microsoft France.

Les équipes Hop Cube (Efrei) et Green Edge (Epita), remportent respectivement les médailles d'argent et de bronze avec un projet de monnaie virtuelle (Hop) et une solution de modélisation du cycle de vie d'un produit (Green Edge, prix spécial du jury).

Source : http://www.silicon.fr/fr/news/2008/05/19/les_gagnants_francais_de_l_imagine_cup_2008

Orange lance un service de stockage convergent en ligne

L'opérateur réplique aux services de Free, Neuf ou encore Alice

Orange a comblé en très peu de temps le vide qui le séparait de ses concurrents. L’opérateur s’apprête à lancer un service de stockage de données en ligne. Baptisé "mes données", le nouvel outil, accessible depuis n’importe quel poste, offre aux utilisateurs la possibilité de stocker des données sur un espace compris entre 2 et 4 Go.

L’espace de stockage peut aussi bien accueillir des matériaux ludiques (vidéo, photos, musiques) que professionnels (document Word ou Powerpoint).

Le service, gratuit, est uniquement réservé aux abonnés Orange. Seuls les clients détenteurs d’un forfait mobile et d’un abonnement Internet, et ayant activé l’option "mes services unifiés" pourront bénéficier des 4 Go de stockage. Les autres devront se contenter des 2 Go.

A partir d'août, les clients d'Orange pourront profiter de 10 Go de stockage en souscrivant à une option premium facturée 3 euros par mois.

Orange semble avoir particulièrement insisté sur l’interface utilisateur. L’outil, accessible depuis la page d'accueil Orange, est supposé être très maniable et intuitif. Selon le communiqué, un simple ‘glisser-déposer’ permet d’intégrer un contenu dans l’espace de stockage. En outre, grâce à une application supplémentaire installée sur PC, l’espace de stockage peut arborer la forme d’un disque dur externe et se comporter comme tel.

Pour se démarquer, Orange joue la carte de la convergence. Lié avec d’autres services proposés par l’opérateur, l’utilisateur peut par exemple gérer ses photos avec le service Photo Orange. Parmi d’autres innovations prévues, une future évolution de l’outil doit permettre de copier directement sur son espace de stockage des contenus issus d’un mail.

Rappelons toutefois qu’Orange n’est pas seul dans ce domaine. Depuis 2005, Neuf propose à ses abonnées le service Neuf Giga. Avec ce service, les utilisateurs peuvent stocker jusqu’à 9 Go de données. Selon Neteco, la très convoitée Alice lance également son service de stockage en ligne. Moyennant 5 euros par mois, son offre, ‘Alice back up’, permet à ses abonnés de disposer d’un espace de stockage en ligne. Contrairement, aux offres précédentes, Alice ne fixe aucune limite de stockage assez conséquent, mais n’autorise ni la consultation en ligne, ni le partage de fichier.

Source : http://www.silicon.fr/fr/news/2008/05/21/orange_lance_un_service_de_stockage_convergent_en_ligne

Feu vert pour la mission e-educ sur l'école numérique

Jean Mounet, président du Syntec Informatique, a remis ce matin au ministre de l'Education nationale Xavier Darcos un rapport sur le développement du numérique à l'école

Ambitieux. C'est ainsi que l'on peut sans nul doute qualifier l'imposant rapport de la mission « Educ » sur le développement du numérique à l'école, qui a été remis ce matin par le président du Syntec Informatique, Jean Mounet, à la demande de Xavier Darcos, ministre de l'éducation. Le programme devra passer par l'appel à une mobilisation nationale de grande ampleur, pour développer l'usage du numérique dans les écoles de l'Hexagone.

Cinq grandes actions dont la mobilisation du secteur informatique

Or, sur cette question, la France est plutôt en retard par rapport à d'autres pays, comme l'a souligné ce matin, le ministre. Les engagements nouveaux de l'Etat pour conduire l'ensemble des écoles et des établissements vers une stratégie numérique sur le long terme passeront donc par cinq grandes actions : il s'agira de bâtir l'école du numérique, d'optimiser l'action conjointe des pouvoirs publics, de conduire et d'accompagner le changement, de stimuler la production des ressources numériques et des services, et de mobiliser les entreprises du secteur informatique dans un partenariat éducatif vers le numérique.

Un programme national sera lancé sur la période 2008-2014 pour amener l'ensemble des établissements à concevoir et à mettre en oeuvre un projet numérique. Pour assurer la conduite du changement, la formation des enseignants, inspecteurs et chefs d'établissements portera sur les aspects techniques (formation aux outils) et métier (formation aux pratiques pédagogiques incluant les TIC). Pour favoriser le développement des usages du numérique, un cadre national de conduite de changement sera défini dès la rentrée 2008, et un site collaboratif en Web 2.0 sera également lancé.

Le rapport prévoit aussi la création d'une plate-forme électronique d'authentification et de présentation des ressources numériques et des usages, le renforcement de l'engagement dans le domaine du logiciel libre, via le soutien au le label SIALLE (service d'information et d'analyse des logiciels libres éducatifs), et le déploiement d'un chèque ressource pour les enseignants. Un observatoire national des TICE sera parallèlement mis en place pour assurer une veille prospective

Attirer davantage de jeunes dans les filières informatiques

Enfin, pour attirer davantage de jeunes vers les filières informatiques, et favoriser l'égalité des chances, le quatrième volet du programme préconise le recours à un DIF éducation. La mise en place d'une structure projet école/entreprise devra également dynamiser les relations entre écoles, lycées et entreprises du secteur high-tech.

Xavier Darcos a insisté sur la mise en oeuvre de cinq propositions à partir de la rentrée prochaine : «Dès septembre 2008, tous les collèges, lycées et écoles devront inclure un volet numérique » dans leur projet. D'ici 2010, ils devront utiliser un cahier de texte électronique, pour mieux informer les familles. Une plate-forme d'identification et de présentation des ressources, des usages et bonnes pratiques sera créée dans le courant de l'année 2008 afin de mieux informer les enseignants sur les ressources disponibles dans leur discipline. Un observatoire national des TIC, et un programme de formation aux TIC et aux projets numériques destiné à l'encadrement, devraient également être opérationnels, à partir de l'année prochaine.

Source : http://www.lemondeinformatique.fr/actualites/lire-feu-vert-pour-la-mission-e-educ-sur-l-ecole-numerique-26119.html

mercredi 21 mai 2008

Testez le design de votre site dans différents navigateurs

Qu'est-ce que Browsershots ?

Browsershots réalise des captures d'écran du design de votre site dans différents navigateurs. C'est un service en ligne open-source et gratuit créé par Johann C. Rocholl. Quand vous soumettez votre adresse internet, elle est ajoutée à la file d'attente. Un certain nombre d'ordinateurs ouvriront votre site internet dans leur navigateur. Ils feront donc des captures d'écran et les enverront sur ce serveur central

Lien : http://browsershots.org/

Exchange Online gèrera des dizaines de millions de boîtes d'ici 5 ans

Exchange Online est déjà proposé aux Etats-Unis

La mutation de cette première brique vers le modèle "logiciel et services" va être suivie de près par celles d'autres comme Sharepoint.

Chez Microsoft, l'offre Cloud Computing commence par les serveurs de messagerie. D'ici cinq ans, Microsoft prévoit que son offre Exchange Online hébergera des dizaines de millions de boîtes à lettres professionnelles.

C'est la première annonce de la mutation d'une offre entreprise du modèle logiciel à celui de "logiciel et services" que Microsoft met progressivement en place. Chez Microsoft France, on insiste sur le fait que l'offre s'adresse à des entreprises qui disposent d'un service informatique. Il faudra toujours un informaticien pour paramétrer les services proposés.

"D'ici cinq ans, la moitié des boîtes Exchange seront sur Exchange Online", a déclaré Chris Capossela, qui préside aux destinées de la ligne de produits Office. Cela représente effectivement des dizaines de millions de comptes si l'on considère les chiffres communiqués par les analystes de Radicati. Pour eux, 210 millions d'utilisateurs professionnels sont gérés par un serveur Exchange cette année et ce chiffre atteindra 319 millions en 2012. Microsoft affirme qu'il étoffe chaque mois ses datacenters de 10 000 serveurs.

Microsoft brandit déjà le succès qu'il a remporté avec Exchange Online auprès de Coca Cola. Le plus gros producteur mondial de sodas vient d'abandonner IBM Lotus Notes pour confier ses 70 000 adresses mails aux soins de Microsoft Online.

Pour les entreprises, le glissement vers une solution hébergée pourra se faire soit en gardant le modèle de facturation à la licence, soit en optant pour un modèle basé sur l'abonnement. Si Microsoft envisage une réduction de ses marges, il prévoit une augmentation de son chiffre d'affaires.

Il n'y a pas que le serveur Exchange qui entame sa mutation du logiciel vers le service. Les variantes hébergées des serveurs Sharepoint, Office Communication Online et Office Live Meeting sont en phase bêta. Microsoft France précise que les dates des bêtas francisées (y compris pour Exchange Online) ne sont pas encore connues.

[NdR: Je suis avec grande attention cette mutation qui prendra - j'en suis convaincu - de l'ampleur même dans nos milieux universitaires et de recherche]

Source : http://www.lemondeinformatique.fr/actualites/lire-exchange-online-gerera-des-dizaines-de-millions-de-boites-d-ici-5-ans-26105.html

Un environnement numérique de travail universitaire de 100.000 utilisateurs en PACA

L'Université Numérique en Région Provence Alpes Côte d'Azur (UNR PACA) a déployé un bureau virtuel pour les étudiants de cinq universités

Construit sur Contact Office, il est déployé sur des machines propres IBM sous Linux Red Hat.
En juillet 2002, le gouvernement Raffarin lance à un appel à projets pour constituer des UNR (universités numériques en régions). Les universités d'Aix-Marseille, Avignon, Nice et Toulon répondent en constituant l'UNR PACA (Université Numérique en Région Provence Alpes Côte d'Azur), qui sera l'une des dix retenues en Octobre 2002.

L'objectif est de développer l'usage des TIC dans les universités, la mise en oeuvre d'un ENT (environnement numérique de travail) étant imposée dans ce cadre. « Les universités de la région PACA avaient une vraie volonté politique de mettre en oeuvre de tels services pour leurs étudiants et personnels » indique Isabelle Pouliquen, chef de projet de l'UNR PACA.

Le ministère de tutelle avait pré-sélectionné quatre ENT disposant chacun d'un bureau virtuel : ESUP se basait sur des technologies libres et était soutenu par un consortium universitaire ; Encorra, soutenu par les universités de Lyon et Grenoble, s'appuyait sur ContactOffice ; Eppune, soutenu par Strasbourg, se basait sur des technologies de Microsoft ; et enfin Montecristo, défendu par l'université de Corse, avait adopté la solution Blackbird.

Un partage fin de données accessible par le web

« Aucune des quatre solutions n'était alors vraiment mature, toutes étant encore en plein développement » se souvient Isabelle Pouliquen. Après une étude de chacune des quatre solutions, l'UNR PACA choisit le bureau virtuel ContactOffice, le reste de l'ENT ESUP et l'appliance IronPort pour la gestion des mails. Isabelle Pouliquen justifie son choix : « dès cette époque, Contact Office était opérationnel avec un véritable bureau virtuel accessible par le web comprenant, pour chaque compte, un agenda, le stockage de documents et une gestion des contacts. Le tout comprenait des fonctions de partage entre personnes ou au sein de groupes, avec gestion fine des droits. Il n'existe toujours pas aujourd'hui d'autre solution aussi performante. ». Il ne s'agit cependant pas d'un outil bureautique en ligne (comme les GoogleApps ou Zimbra).

Les universités de la région PACA utilisant le système ont mis en oeuvre une seule plate-forme bâtie sur des serveurs IBM et le Linux de Red Hat. Contact Office gère son frontal web et sa propre base de données intégrée comportant une gestion des pointeurs et une indexation (sur un serveur dédié) mais les documents partagés eux-mêmes sont stockés sur un SAN IBM, avec un serveur de sauvegarde distante IBM disposant d'une bandothèque. Les courriels sont, eux, traités par une appliance IronPort.

70000 comptes actifs

Le coût global du projet est estimé à 500 000 euros, auxquels s'ajoutent une redevance annuelle d'un euro par utilisateur, prise en charge pour les étudiants par la Région. L'environnement numérique de travail de l'UNR PACA est autant destiné aux personnels administratifs qu'aux enseignants et aux étudiants. « Cela permet, par exemple, aux enseignants de mettre à disposition leurs documents pédagogiques pour un groupe d'étudiants qu'ils auront créé aisément par une procédure programmée, comme par exemple pour une promotion entière, » signale Isabelle Pouliquen. Sur les 100 000 comptes créés, environ 70 000 sont effectivement actifs.

Tous les nouveaux étudiants bénéficient de douze heures de formation, six en présenciel et six en téléformation, sur l'ensemble des outils numériques mis à disposition par les universités, dont trois heures sur l'ENT. Côtés personnels administratifs et enseignants, l'UNR dispense deux sessions de formation de trois heures (débutant et avancé).

Source : http://www.lemondeinformatique.fr/actualites/lire-un-environnement-numerique-de-travail-universitaire-de-100-000-utilisateurs-en-paca-26102.html

Le bon docteur Google ouvre son cabinet

Annoncé depuis le début de l’année, l’outil de santé en ligne Google Health est ouvert au grand public en version bêta

C’est parti. Google a officiellement lancé son service de conservation de données médicales en ligne, rapporte l’agence AP. Baptisée ‘Google Health’, la nouvelle application gratuite et en ligne de Mountain View, pour le moment en version test, devrait permettre aux utilisateurs américains de créer, de stocker et de gérer leur dossier médical. Une sorte de dossier médical personnalisé (DMP) à la sauce Google. Pour accéder à son dossier, il semblerait que seule une adresse Gmail et un mot de passe soit nécéssaire.

Le service de santé propose également d'effectuer des recherches dans une base de données spécialisée, de trouver un professionnel de santé par spécialité ou par zone géographique.

Le nouveau service de la pieuvre Google viendra concurrencer Microsoft avec HealthVault et Revolution Health, créé par l’un des fondateur d’AOL. Il faut dire que la demande est forte. Selon un sondage effectué l'an dernier en Grande-Bretagne, 12% des internautes vont sur Google pour s'informer allant d'aller chez le médecin. Et 20% des personnes se tourne vers Internet pour avoir des informations de santé.

L’une des subtilités de ‘Google Health’ réside dans la possibilité de lier un compte avec une pharmacie ou un spécialiste des soins. Testé durant six mois dans une clinique de Cleveland, l’un des comptes à été relié au portail de soins de l’établissement de santé. Les patients ont pu consulter les dossiers et ajouter des informations supplémentaires aux prescriptions médicales.

Donc Google estime rester dans son rôle en fournissant un outil supplémentaire aux nombreux utilisateurs préoccupés par la thématique de la santé. Les défenseurs des données personnelles voient le problème d’un tout autre œil.

Pour Pam Dixon du World Privacy Forum, le géant de Mountain View s’affranchit des contraintes qui entourent la conservation des données médicales. Selon les termes de la loi américaine, toute personne qui consulte un dossier médical doit en avertir le détenteur et lui donner l’opportunité de refuser une demande. Cette disposition ne semble pas faire partie du dispositif de Google.

Les membres du World Privacy Forum s’inquiètent également des mesures de sécurité prévues pour la protection des données. Marissa Mayer, vp de Google, responsable produits de recherche et service aux utilisateurs balaye cette inquiétude d’un revers de main. Pour elle, aucune inquiétude à avoir quant à la sécurité des données conservées.

Google affirme que le service ne partagera les informations stockées qu'avec l'accord express du patient. Par ailleurs, aucune donnée ne sera jamais mise en vente, promet la firme.

Néanmoins, Google reste plus que jamais une entreprise commerciale chargée de faire des bénéfices. Rien ne devrait empêcher le moteur de recherche par la suite de monétiser les informations médicales que des milliers, voire des millions de clients auront laissé sous sa garde.

Pour le moment, la firme de Mountain View assure ne pas croiser les informations collectées avec les résultats de recherches de son moteur. Mais pour combien de temps ?

[NdR: Je suis atterré ! J'espère que nous n'aurons jamais ça en France...]

Source : http://www.silicon.fr/fr/news/2008/05/20/le_bon_docteur_google_ouvre_son_cabinet

StartWest : Avec Evodia, le manuscrit retrouve ses lettres de noblesse… numérique.

Gutenberg et De Vinci n’ont qu’à bien se tenir, les manuscrits anciens et tous les documents manuscrits numérisés sont déchiffrés, et stockés sur support numérique pour l’éternité

Evodia, acteur de dématérialisation, perfectionne chaque jour ses solutions. Lors de la manifestation StartWest à Nantes, silicon.fr a tenu à présenter cette société prometteuse, fondée pour commercialiser les travaux de chercheurs en dématérialisation, et lauréate du concours Anvar 2006.

Historique

La dématérialisation s’incarne hors du labo. Quatre chercheurs du laboratoire IMADOC de l’IRISA (Institut de recherche en informatique et systèmes aléatoires) à Rennes souhaitaient commercialiser le résultat de leurs travaux sur la reconnaissance de manuscrits et d’écriture. En 2005, ils ont donc fait appel à Yvan Ridé, pour créer la société Evodia, comme le permet la loi Allègre sur l’innovation. "Les chercheurs sont actionnaires de la société et peuvent consacrer 20 % de leur temps à son développement. Bien entendu, Evodia et le laboratoire ont passé un accord concernant les droits sur les licences logicielles concernées", précise Yvan Ridé. À cette époque, des prospects s‘étaient déjà fait connaître.

Aujourd’hui la société compte 10 salariés, des ingénieurs juniors et Yvan Ruidé qui assume la commercialisation. Elle doit donc se développer en s’appuyer sur un réseau de Vars et d’intégrateurs en France et à l’étranger. "Proposer du service n’est pas notre vocation. Notre métier reste le développement et la recherche, et nous devons y consacrer tous nos efforts", souligne Yvan Ridé.

Cependant, Evodia compte déjà plusieurs clients, comme des services d’archives départementales, des conseils généraux (Mayenne, Gironde, Morbihan…), mais aussi des industriels comme l’Apave (spécialiste de l’ingénierie des risques en milieu industriel).

Les solutions

Des technologies de reconnaissance tous azimuts. Evodia développe et commercialise une gamme de produits permettant aussi bien le traitement hors ligne que la composition en ligne de contenus complexes dans des documents numériques. Elle apporte aussi l’indexation automatique de documents numérisés, très appréciée pour les documents d’archives, anciens et abîmés. Cependant, ces technologies sont aussi exploitées pour autres usages.

Annotation automatique propose des traitements d’image pouvant reconnaître la structure des documents numériques, de masquer de contenus, de reconnaître l’écriture, etc.

KerQuery autorise l‘annotation collective sur la visualisation souple d’images (zoom, rotation, passage à l’image suivante…). Et surtout, le logiciel intègre un large éventail de fonctions de recherche (y compris sur l’écriture manuscrite).

Script&Go interprète à la volée des schémas exécutés à main levée sur des tablet-PC.
Toutaki, J’apprends à écrire”, dont le nom explique tout, à partie d’un tablet-PC.

Source : http://www.silicon.fr/fr/news/2008/05/20/startwest___avec_evodia__le_manuscrit_retrouve_ses_lettres_de_noblesse__numerique_

mardi 20 mai 2008

Les premiers sélectionnés pour la finale Imagine Cup surveillent les aliments périmés

Comme chaque année, Microsoft organise une grande compétition étudiante du numérique

L'équipe française sélectionnée pour la finale dans la catégorie « conception logicielle » a mis au point le système Well K'home pour mieux gérer les aliments périmés dans le réfrigérateur et le tri des déchets.

« Et le gagnant est ... SmartCooking ». Nous ne sommes ni aux Césars, ni aux Oscars, encore moins à Cannes, mais à l'Imagine Cup de Microsoft. L'éditeur organise chaque année ce championnat du monde de création numérique pour les étudiants du monde entier. La semaine dernière, à l'occasion d'une cérémonie parisienne, l'équipe qui porte le doux nom de SmartCooking a donc été sélectionnée pour participer à la grande finale qui se tiendra aussi à Paris du 3 au 8 juillet prochain. Ils concourraient dans la catégorie reine, si l'on en croit Microsoft : « la conception logicielle ».

L'édition 2008 a pour thème l'environnement et se déroule pour la première fois en France. Plus de 200 000 jeunes du monde entier (360 équipes) ont participé parmi lesquels 13 000 Français. La France est le deuxième pays le mieux représenté derrière la Chine et devant les Etats-Unis et l'Inde. Tous ont déposé un dossier pour un projet en lien avec la thématique 2008 en début d'année dans une des neuf catégories parmi lesquelles la conception logicielle, l'embarqué, le jeu, l'algorithmique, la photo, le design d'interface.

Deux jurys composés d'experts en TIC et de spécialistes de l'environnement

Pour la conception logicielle, les étudiants ont présenté un dossier en janvier avant de passer devant deux jurys successifs constitués d'un subtil mélange d'experts en TIC et de spécialistes de l'environnement. Les quatre étudiant de SmartCooking (Supinfo Lille, Supinfo Montpellier, les Gobelins) ont mis au point Well K'home pour mieux gérer les stocks d'aliments dans le réfrigérateur et le tri des déchets. Le logiciel récupère les informations idoines (en particulier la date de péremption) principalement via des puces RFID incluses dans le packaging des aliments. Sébastien Warin, étudiant à Supinfo Lille, passionné d'informatique depuis sa plus tendre enfance et membre de l'équipe gagnante, rappelle qu' « un quart de la production de nourriture termine à la poubelle sans avoir été consommée. »

L'utilisateur sera donc notifié sur un écran tactile sur son réfrigérateur ou sur son téléphone mobile lorsque certains des produits qu'il conserve approcheront de leur date limite de consommation. Le logiciel lui proposera même une recette en fonction des aliments restants. Son système déclenchera aussi, éventuellement, la commande en ligne des produits qui manquent pour se les faire livrer. « Si on généralise la livraison à domicile, moins de personnes prendront leur véhicule individuel pour aller faire des courses, » ajoute Sébastien Warin. Un autre moyen de moins polluer. Enfin, les puces RFID contiendront les informations concernant le tri approprié des déchets. Toute la logique métier du logiciel est exposée au travers de services Web qui peuvent être exploités au travers de diverses interfaces.

Il faut absolument mettre en relation les informaticiens et les écolos

Le thème du développement durable a sans surprise beaucoup inspiré les étudiants. Les deuxième et troisième prix du concours ont ainsi respectivement été attribués à un système de récompense de l'action en faveur de l'environnement et à un logiciel destiné à augmenter la qualité environnementale de bout en bout des produits industrialisés. Chantal Jouanno, présidente de l'Agence de l'environnement et de la maîtrise de l'énergie (Ademe), partenaire de l'événement, plaisante à peine lorsqu'elle rappelle qu'on a un peu trop tendance à « considérer les internautes comme de jeunes délinquants et les écolos comme des amoureux de la bougie. Ce sont en réalité deux mondes tournés vers l'avenir. Et il faut donc absolument les mettre en relation ! Bien sur, ce sont deux cultures différentes, comme celles qui se sont rencontrées au sein des jurys ImagineCup. Une culture plus environnementale, bien sûr, très technique, avec une méthode d'analyse du cycle de vie. Une autre, technique également, mais tournée d'abord vers le numérique. Mais là où nous nous retrouvons, c'est sur la créativité ! »

[NdR: Je connais particulièrement bien cette compétition, ayant emmené des étudiants en finale ces trois dernières années qui ont à chaque fois ramené des médailles à la France !]

Source : http://www.lemondeinformatique.fr/actualites/lire-les-premiers-selectionnes-pour-la-finale-imaginecup-surveillent-les-aliments-perimes-26094.html

lundi 19 mai 2008

Les Européens regrettent le gaspillage lié aux impressions sans se juger responsables

Les salariés européens prennent conscience de l'enjeu environnemental lié au gaspillage du papier utilisé pour l'impression et ont globalement diminué leur consommation en 2007

Pourtant, s'ils estiment que leur entreprise a encore des progrès à faire, ils se déclarent souvent étrangers à ce gâchis. Ce sont les principales conclusions d'une enquête réalisée conjointement par Lexmark et Ipsos auprès de 5676 salariés de 13 pays européens.

Avec 31 pages imprimées quotidiennement par chaque salarié de l'UE, la consommation moyenne de papier a reculé de trois pages en 2007. Notons cependant les disparités selon les pays : alors que la Suède fait figure de bon élève (22 pages par jour et par personne), l'Espagne atteint 41 pages, soit cinq de plus qu'au cours de l'année précédente. La France se situe légèrement au-dessous de la moyenne européenne avec 28 pages (contre 31 en 2006).

C'est la faute des collègues

Cette diminution globale de la consommation est à mettre en parallèle avec les préoccupations environnementales : 90% des salariés se disent conscients des conséquences fâcheuses du gaspillage et plus de la moitié jugent trop élevé le nombre d'impressions inutiles réalisées dans leur entreprise.

Pourtant, ils sont nettement moins nombreux à s'estimer responsables de cette gabegie (27% au niveau européen), préférant accabler leurs collègues de travail. En France, par exemple, 60% des salariés regrettent la quantité de papier gaspillée sur leur lieu de travail, mais seuls 30% d'entre eux pensent y contribuer. Et de l'autre côté des Pyrénées, 19% considèrent qu'ils impriment trop alors qu'ils sont 48% à pointer du doigt la consommation de leur entreprise.

Au-delà de la prise de conscience écolo, la maîtrise de la consommation de papier a évidemment un intérêt pécuniaire pour les entreprises. C'est pourquoi 49% ont modifié leur politique d'impression en 2007, en encourageant leurs salariés à recourir au recto-verso (dans 20% des entreprises ayant adapté leur stratégie d'impression l'an passé) ou en obligeant les salariés à s'identifier avant d'imprimer un document (12%). Curieusement, l'encouragement à imprimer moins, qui constitue pourtant la mesure la plus évidente, n'est formulé que dans 42% des entreprises.

Source : http://www.lemondeinformatique.fr/actualites/lire-les-europeens-regrettent-le-gaspillage-lie-aux-impressions-sans-se-juger-responsables-26075.html

Kaspersky 2009 : plus fort, plus simple et plus rapide

Une interface simplifiée, une surveillance automatisée pour les non-experts, de nouveaux modules techniques… et des performances améliorées de 40 %, cette mouture devrait rencontrer un succès mérité

Les modes automne/hiver arrivent en magasin dès juillet, les fournitures scolaires de rentrée dès fin juin. Alors pourquoi pas les versions antivirus 2009 en juin ? Livrant son nouveau produit après ses concurrents aux versions 2008 (de fin 2007), l’éditeur russe Kaspersky propose son antivirus et sa suite Internet Security 2009. Marketing, quand tu nous tiens ! Cependant, cela ne nuit nullement aux avancées proposées dans cette nouvelle mouture.

Comment protéger le plus efficacement possible, en utilisant les technologies les plus efficaces, en mettant à jour le plus régulièrement possible les logiciels, avec des produits de sécurité simple à utiliser, et sans pénaliser les performances ? Pari complexe pour les éditeurs de logiciels antivirus, antispam et coupe-feu.

Selon le cabinet d’étude GFK, Kaspersky détiendrait 38 % du marché (ventes de boîtes en magasin) sur le marché français de l’antivirus avec Kaspersky Anti Virus 7, et 18 % des suites avec Kasperky Internet Security. Avec la version 2009, l’éditeur mise sur une forte augmentation, grâce à de nouvelles fonctions, des technologies améliorées, des performances optimisées, et une interface simplifiée jusqu’au fonctionnement automatisé. L’utilisateur peut créer un CD de démarrage pour prévenir les gros problèmes de type rootkit, ou encore télécharger une image CD permettant de démarrer l’ordinateur de façon à récupérer ses données.

De nouvelles fonctions antivirales et de surveillance réseau

Au-delà de la protection de base (virus, vers, chevaux de Troie, spyware, malware, email, trafic Internet, messageries instantanées, et protection contre les menaces inconnues), Kaspersky Antivirus 2009 s’enrichit de l’analyse complète du système d’exploitation et des applications, et de la surveillance préventive, d’un clavier virtuel pour éviter les Keylogger, de la protection du vol de donnée via connexion sécurisée…

De même, la suite KIS améliore son coupe-feu en surveillant désormais les réseaux Wifi et IPV6, l’automatisation de configuration des règles de sécurité des applications, la définition des niveaux de sécurité pour les applications inconnues, et la classification automatique des applications (HIPS). Les parents apprécieront toujours le module de contrôle parental multiniveaux rendu inaccessible aux adolescents les plus chevronnés.

Classifier pour gérer la dangerosité

Lorsqu’un événement intervient sur l’ordinateur, le rôle d’une solution de sécurité est soit d’interdire, soit de rejeter un traitement, une application, un site web, ou un e-mail. Kaspersky combine donc plusieurs technologies (voir schéma) : listes blanches et noires, signature digitale (reconnaissance de code), et l’analyse heuristique émulant l’activité d’une application pour déterminer son niveau de dangerosité. La catégorisation des applications effectue une distinction, et donc des différences d’autorisations d’accès à des informations et à des ressources : application de confiance, à restriction faible, avec restrictions élevées, application douteuse, ou rejetée. En automatisant ce type de tâches, Kaspersky gagne en simplicité tout en assurant une sécurité optimale.

Plus simple, plus performant et moins de questions

Certes, l’interface du produit a encore été simplifiée, tout en conservant un bon niveau d’information. Mais surtout, Kaspersky peut fonctionner en mode automatisé, traitant automatiquement les menaces et classant les applications sans intervention de l’utilisateur. Fini les fenêtres avec des questions complexes, malgré leur formulation simple. D’autant que si l’utilisateur ne répond pas, le processus attend… Des petits pop-up s’affichent toujours pour alerter l’utilisateur, mais s’effacent au bout de quelques secondes.

Enfin, atout majeur pour ce type de solution : les performances ont été optimisées et KIV 2009 serait 40 % plus rapide que son prédécesseur. Une bonne nouvelle pour ceux qui avaient fini par désactiver le pare-feu au profit celui de Windows, gratuit, mais bien moins efficace.
Dès le 2 juin en ligne et le 6 juin en magasins, Kasperky Antivirus (KAV) sera disponible pour moins de 40 euros pour 3 postes et un an de mises à jour, et Kaspersky Internet Security (KIS) aux mêmes dates et conditions pour moins de 70 euros.

Source : http://www.silicon.fr/fr/news/2008/05/16/kaspersky_2009___plus_fort__plus_simple_et_plus_rapide

dimanche 18 mai 2008

Les pouvoirs publics et les entreprises doivent agir de concert pour remédier à la pénurie d’adresses Internet, selon l’OCDE

Les pouvoirs publics et les entreprises doivent oeuvrer de concert de façon plus efficace et urgente


Ceci pour satisfaire la demande croissante d’adresses Internet et assurer le futur de l’économie Internet, selon un nouveau rapport de l’OCDE.

Avec près de 85 % de la totalité des adresses Internet disponibles déjà attribuées en mai 2008, les experts estiment que si les tendances actuelles se maintiennent, il n’y aura plus d’adresses libres d’ici 2011.

Cela pourrait signifier que de nouveaux internautes ou de nouveaux équipements mobiles ne pourraient pas se connecter à l’Internet. La solution, selon le rapport, réside dans la version 6 du protocole Internet (IPv6) qui fournira un nombre presque illimité d’adresses et contribuera à promouvoir le déploiement du haut débit, de téléphones portables et de réseaux de capteurs reliés à l’Internet ainsi que de nouveaux services.

Les pouvoirs publics et le secteur privé devraient mieux sensibiliser à la nécessité d’entamer dès maintenant la préparation du passage de la version 4 actuelle du Protocole Internet à l’IPv6 et expliquer aux fournisseurs d’accès Internet et aux professionnels de l’informatique que cette évolution constitue une opportunité commerciale et sociale, et non pas une charge financière.

Les fournisseurs de services ont jusqu’à présent été réticents à investir, car la demande des clients à l’égard de l’Ipv6 est faible. Selon le rapport, les Gouvernements ont un rôle important à jouer en tant qu’utilisateurs majeurs de services Internet, en stimulant la demande à l’égard de l’IPv6 à travers leurs propres politiques en matière de marchés publics et de partenariats public-privé en recherche-développement sur l’IPv6.

Le rapport analyse également l’alternative à un déploiement généralisé de l’IPv6, dans laquelle certaines régions adopteraient ce protocole et d’autres se contenteraient d’adapter l‘IPv4 à titre de solution de court terme. Celui-ci met en garde contre le fait que cela aurait un impact sur les possibilités économiques offertes par l’Internet, avec de graves conséquences en termes d’étouffement de la créativité et du déploiement de nouveaux services.

Certains pays sont en pointe dans le déploiement des réseaux IPv6. Au Japon, par exemple, l’entreprise de télécommunications NTT utilise l’IPv6 pour connecter des milliers de capteurs à un système informatique permettant de détecter les tremblements de terre et de prendre des mesures immédiates par Internet pour limiter les dommages causés par les séismes, comme d'envoyer une alerte à tous les programmes de télévision ou de faire passer tous les feux au rouge. Ce type d'application requiert des millions d'adresses, de sorte qu'il ne peut pas fonctionner sur l'Internet aujourd'hui, alors qu'il fonctionne déjà sur l'Internet IPv6.

Le gouvernement des États-Unis a fixé au mois de juin 2008 la date butoir à laquelle le réseau Internet de chaque agence gouvernementale doit être compatible IPv6. La Commission européenne finance elle aussi des projets de recherche et étudie les moyens d’accélérer le déploiement. La Corée, qui va accueillir la prochaine Réunion ministérielle de l’OCDE sur le Futur de l’économie Internet, s’est engagée à convertir les équipements Internet des institutions publiques à l’IPv6 d’ici 2010 et à installer des équipements IPv6 dans tous les nouveaux réseaux de communications mis en place.

Le gouvernement chinois a commencé à déployer un réseau IPv6, appelé Internet chinois de prochaine génération, sur lequel les Jeux olympiques de 2008 à Beijing serviront à tester des équipements mobiles et des systèmes de transport intelligent et de sécurité utilisant l’IPv6.

Le rapport est disponible sur le site Web de l’OCDE à l’adresse www.oecd.org/sti/ict

Source : http://www.oecd.org/document/10/0,3343,fr_2649_201185_40607370_1_1_1_1,00.html

vendredi 16 mai 2008

Adobe dévoile la version 10 de Flash

Au menu de cette nouvelle version, des effets visuels entièrement personnalisables et un support des accélérateurs graphiques

Adobe lance aujourd'hui le programme de bêta-test de la future version 10 du lecteur Flash. Connue sous le nom de code d'Astro, cette mouture offrira un support de la 3D et de la vidéo accélérée. La puissance de traitement des cartes graphiques sera ainsi bien mieux utilisée que précédemment.

Flash Player 10 supportera également des effets et filtres graphiques personnalisés. Le développeur pourra les créer avec l'outil gratuit Adobe Pixel Bender (aussi utilisé par Adobe After Effects CS3). Le code peut - au besoin - exploiter directement la puissance des GPU des cartes graphiques.

La transmission d'un signal audio pourra également s'effectuer avec le codec open source Speex, en plus du format Nellymoser. C'est une excellente nouvelle : les flux audio enregistrés par le micro d'un utilisateur pourront maintenant être aisément décodés et utilisés par des solutions serveurs autres que celle d'Adobe.

Bien évidemment, les applications Flex fonctionneront avec Astro. Reste à savoir si le kit de développement éponyme sera adapté aux nouvelles fonctionnalités du lecteur. La compagnie prévoit enfin d'utiliser ce moteur au sein d'une future version d'AIR (Adobe Integrated Runtime), produit qui permet de créer des applications traditionnelles à partir d'un code HTML/JavaScript, Flash ou Flex.

Le lecteur est téléchargeable sur cette page du site Adobe Labs, en version Windows, Mac OS X ou Linux.

Source : http://www.silicon.fr/fr/news/2008/05/15/adobe_devoile_la_version_10_de_flash

Microsoft ouvre son télescope virtuel, le Worldwide Telescope

Le télescope virtuel de Microsoft est disponible en ligne

Réplique de Microsoft à Google Sky, le Worldwide Telescope s'appuie sur les images de multiples satellites et télescopes afin de permettre à l'utilisateur de naviguer d'une planète à l'autre, d'une galaxie à l'autre. L'outil est livré avec plusieurs « visites guidées » élaborées et commentées par des astronomes, et offre la possibilité de créer ses propres circuits. Une démonstration époustouflante du Worldwide Telescope avait été présentée en février dernier, lors des 'conversations TED'.

Pour utiliser le Worldwide Telescope, il suffit de télécharger et d'installer un exécutable de 21 Mo. En revanche, les ressources de la machine d'accueil - sous XP SP2 ou Vista - doivent être conséquentes ; le test que nous avons effectué sur un portable à usage bureautique était franchement décevant. Microsoft recommande un PC avec un Core 2 Duo à 2 GHz, 2 Go de RAM et une carte graphique prévue pour la 3D.

Source : http://micro.lemondeinformatique.fr/actualites/lire-microsoft-ouvre-son-telescope-virtuel-le-worldwide-telescope-2137.html

Les entreprises françaises ont un peu moins piraté en 2007

En 2007, le taux de piratage des entreprises françaises a encore baissé

IDC, commandité par le groupe de pression BSA (Business Software Alliance), l'estime à 42%. 2007 aura été la deuxième année de baisse après le taux record de 47% constaté en 2005. Toutefois, au sein de la Communauté européenne, les entreprises françaises de l'Hexagone figurent toujours parmi les moins sensibles aux campagnes d'information. La France n'est dépassée que par la Grèce (58%), Chypre (50%) et l'Italie (49%). Le taux moyen de piratage en Europe de l'Ouest est de 33%. Au niveau mondial, établi à partir de 108 pays, ce taux atteint 38%.

L'amélioration tendancielle du comportement des entreprises françaises, qui devrait pourtant apaiser la BSA, n'empêche pas son antenne française d'affirmer sur la page d'accueil de son site : " Devant l'augmentation continue du taux de piratage dans les entreprises françaises, qui place la France au 3ème rang mondial, BSA (Business Software Alliance) annonce une importante vague de contrôles en entreprise et entame une grande campagne de communication sur les risques liés à la contrefaçon de logiciels."

Un rapide coup d'oeil aux propres statistiques de la BSA montre qu'au moins 90 pays ont des taux de piratage plus élevés que ceux constatés en France.

[NdR: Est dans nos établissements d'Enseignement Supérieur et de Recherche ?]

Source : http://www.lemondeinformatique.fr/actualites/lire-les-entreprises-francaises-ont-un-peu-moins-pirate-en-2007-26070.html

La « 27e Région » veut faire entrer les politiques publiques dans l'ère du numérique

L'ARF (Association des régions de France) crée la « 27e région » pour propulser les 26 régions administratives dans le monde numérique

Il s'agira à la fois d'un groupe de travail et d'un réseau d'acteurs innovateurs chargés d'identifier et de mettre en oeuvre des projets TIC répondants aux désirs des usagers en matière de politique publique. Pas question d'installer des TIC pour les TIC.

L'ARF (Association des régions de France) a imaginé une « 27e région ». Malgré l'ambiguïté de son nom, cette dernière n'est en aucun cas une nouvelle collectivité. Il ne s'agit pas non plus d'un nouveau et énième groupe de réflexion sur le sujet. Alain Rousset, Président de l'ARF et du Conseil Général d'Aquitaine, définit cette 27e Région comme un « laboratoire commun de R&D sur les politiques publiques à l'age du numérique ».

Christian Paul, président de la commission TIC de l'ARF et vice-président du Conseil Général de Bourgogne, tient à préciser : « c'est un réseau de régions, d'élus avec leurs équipes, d'innovateurs dans les territoires, d'universités, d'entreprises, etc. Autant de mondes qui n'ont pas l'habitude de se parler. C'est un outil d'innovation et d'expérimentation pour comprendre comment les politiques publiques peuvent changer grâce aux TIC. Et il ne s'agit pas seulement de réfléchir, mais bel et bien de faire. En grand et en réel. »

Le réseau compte déjà une centaine de personnes. Sa démarche s'appuie depuis le départ sur la FING. La Fédération Internet Nouvelle Génération travaille depuis 2000 sur les nouveaux usages des TIC, et en particulier ceux du Web 2.0, dans la société en général. Six grands défis vont guider la 27e Région, qui se déclineront ensuite en projets concrets : préparer le lycée nouvelle génération, inventer l'université de demain, repenser l'espace régional et la prospective des territoires, réussir l'économie en réseau, atteindre la haute qualité informationnelle. Deux ou trois projets devraient démarrer dès cette année.

Partir des besoins des usagers et ne pas recréer un ghetto des TIC

Ce groupe de travail recensera bien sûr les bonnes pratiques déjà en place dans les régions, mais surtout il leur permettra de mettre en commun leurs idées et leurs ressources. Il fera aussi appel à des entités extérieures : universités, scientifiques, R&D d'entreprises privées, autres collectivités locales (départements, communes, etc.), autres pays. Les projets partiront des besoins des usagers et non d'une volonté quelconque d'équiper les collectivités avec telle ou telle technologie. Une démarche courante en entreprise, qu'il est temps d'appliquer dans la société.

« Il n'est pas question de recréer un ghetto des TIC, insiste Christian Paul, mais nous (ndlr : les élus) avons néanmoins besoin d'élever notre culture numérique commune. En la matière, la politique court encore après la société. Qui plus est, dans la 27e Région, nous voulons profiter de notre démarche pour devenir les garants du décloisonnement entre ceux qui s'occupent de l'aménagement du territoire, ceux qui s'occupent des écoles, ceux qui s'occupent de l'économie.... Les innovateurs sont transverses. »

La 27e Région compte bien, c'est la moindre des choses, utiliser de nouvelles méthodes pour travailler. Comme l'explique Stéphane Vincent qui prend sa direction, elle organisera par exemple des barcamps (l'organisation réfléchit à une traduction française de ce concept anglo-saxon). Ces réunions au goût de démocratie participative, nées avec le Web 2.0, rassemblent tous ceux qui sont intéressés par un sujet afin de le faire avancer.

Ainsi, un barcamp sur le thème du lycée du futur permettrait aussi bien à des directeurs d'établissement, des enseignants, des chercheurs, des parents d'élèves, des élèves, des citoyens, de proposer des idées sur le sujet. C'est à partir des thèmes et idées ainsi identifiées que les projets seront définis. Ils seront mis en oeuvre à condition que deux régions au moins aient envie d'avancer ensemble sur le sujet.

Les TIC sont indispensables dans les zone à faible densité de population

Plusieurs présidents de régions ont profité de l'annonce pour rappeler certaines expériences déjà mises en oeuvre sur leurs territoires. Ainsi, René Souchon, président de la région Auvergne, rappelle combien les NTIC sont essentielles dans des zones à très faible densité de population. « L'Auvergne compte déjà une centaine de points de visio publics. Et nous allons bientôt tenter avec l'Afpa (Organisme d'intérêt général pour l'insertion professionnelle et le développement des compétences) une expérience de formation à distance pour les maçons. Par ailleurs, dans le Massif Central subit une forte pénurie médicale et nous allons faire en sorte de connecter en permanence les infirmières et les médecins avec d'autres professionnels de santé. »

Jean-Paul Bachy, président de Champagne-Ardenne a, quant à lui, évoqué la pratique des langues étrangères dans les lycées avec des pédagogies innovantes et interactives. « On sait que des élèves qui n'osent pas parler une autre langue devant leurs camarades font beaucoup de progrès avec des outils multimedia. » Enfin, pour prouver que la 27e région pourra pousser les frontières, il raconte aussi le projet en cours pour l'enseignement à distance vers les pays en voie de développement réalisé avec Québec pour les 400 ans de la Province. « Même si les régions n'ont évidemment pas attendu l'ARF pour travailler sur les TIC, nous sommes loin d'avoir tiré tout ce que nous pouvions du numérique, conclut Christian Paul. »

L'ARF compte aussi sur les financements européens

Chaque projet bénéficiera d'un budget de 150 000 à 200 000 € minimum. L'ARF compte sur les régions bien sûr pour leur financement ou la CDC par exemple, mais elle ira aussi chercher des subventions européennes dès la fin du mois. Elle attend aussi de l'Union Européenne un partage des expériences avec d'autres pays.

Source : http://www.lemondeinformatique.fr/actualites/lire-la--27e-region--veut-faire-entrer-les-politiques-publiques-dans-l-ere-du-numerique-26076.html

jeudi 15 mai 2008

La prochaine version d'Ubuntu ne devrait pas sortir avant 2010

Mark Shuttleworth, fondateur du projet Ubuntu et directeur de Canonical (la société en assurant la commercialisation) affirme que la prochaine version LTS (Long Term Support, plutôt dédiée aux entreprises) de sa distribution Linux sortira en avril 2010

Ceci à moins que les grands distributeurs Linux ne se mettent d'accord pour une sortie synchronisée de leurs produits.

Sur son blog, Mark Shuttleworth explique que : « si entre Red Hat (RHEL), Novell (SLES) et Debian, deux sur trois sont d'accord pour s'avancer sur une date au mois près, et ainsi sur une combinaison de noyau, d'outils de compilation, et des versions de GNOME/KDE, d'X et d'Open Office, et s'accordent sur un cycle de support de six mois à un support long de deux à trois ans, alors je réalignerai avec plaisir les cycles court et long d'Ubuntu autour de cette date. »

Red Hat, qui vient de lancer la version 9 de Fedora (sa distribution pour développeurs et particuliers), et Novell n'ont pas encore donné leur avis, mais certains membres de la communauté Debian seraient favorables à une telle synchronisation.

Source : http://www.lemondeinformatique.fr/actualites/lire-la-prochaine-version-d-ubuntu-ne-devrait-pas-sortir-avant-2010-26054.html

Exclusif : les dessous du scandale du Référentiel général d'interopérabilité

Nos confrères de la rédaction de CIO (groupe IT News info) ont reçu une copie d'une note qui aurait été remise par la direction de Microsoft au gouvernement français, note qui serait à l'origine du retard de la publication du RGI (Référentiel général d'interopérabilité)

Avant d'entrer dans le vif du sujet, nos confrères de CIO tiennent à préciser : « le texte qui nous est parvenu est, pour nous, crédible, notamment à cause des voies empruntées, raison pour laquelle notre rédaction a décidé de publier cet article. Il convient toutefois de rester prudent. »

A l'automne dernier, la direction de Microsoft aurait rencontré les plus hautes instances de la République Française . L'éditeur voulait à tout prix bloquer la publication du Référentiel Général d'Interopérabilité (RGI), consacrant le format OpenDocument, normalisé ISO, comme seul format bureautique de l'administration française.

Ce format est en effet soutenu par tous les concurrents du géant de Redmond, empêtré à l'époque dans le refus de voir son propre format, Office OpenXML, confié au consortium ECMA, et dont la standardisation avait été rejetée dans un premier temps par les membres de l'ISO. Depuis, Open XML a obtenu sa normalisation (à noter que la France s'est abstenue de voter).

Par ailleurs, Microsoft Office 2007 a été conçu autour et pour le seul format Open XML. D'où les craintes de l'adoption d'ODF comme format unique. Ce choix exclusif aurait pu donner un coup fatal à la suite bureautique d'Office 2007, et mettre à mal la domination de Microsoft. L'éditeur aurait donc remis aux dirigeants français une note de six pages sur le Référentiel Général d'Interopérabilité. Il en aurait résulté un retard volontaire de la publication du RGI, pourtant prêt à être appliqué, ainsi que l'intégration d'Office OpenXML dans le RGI, une fois la normalisation ISO de ce format obtenue.

C'est cette note qui serait parvenue à la rédaction de CIO. Microsoft y liste les raisons pour lesquelles le choix unique d'ODF serait néfaste pour les administrations et bafouerait « le respect de l'égalité de traitement ».

[NdR : Pas du tout surpris par ce comportement de Microsoft ! ]

Source : http://www.lemondeinformatique.fr/actualites/lire-exclusif-les-dessous-du-scandale-du-referentiel-general-d-interoperabilite-26058.html