mercredi 28 novembre 2007

Dell chez Carrefour… à la conquête de la grande distribution européenne

Après Wal-Mart aux Etats-Unis, les PC Dell seront distribués par Carrefour en Europe

Dell confirme son revirement stratégique et son intérêt pour la grande distribution. Après les Etats-Unis, le fabricant, qui se remet difficilement de la perte de la première place mondiale du marché du PC au profit de HP, se lance à la conquête de la grande distribution européenne.

Les 365 magasins à l'enseigne Carrefour vont proposer des ordinateurs portables et de bureau Dell. La France, la Belgique et l'Espagne seront les premiers à entrer les PC Dell dans les linéaires, dès le mois de janvier prochain.

L'accord signé entre Dell et Carrefour vient s'ajouter aux précédents accords de distribution – dont Wal-Mart aux Etats-Unis, Canada, Brésil et Mexique pour la grande distribution, et Staples aux Etats-Unis, Courts à Singapour, Gome en China, Bic Camera au Japon et Carphone Warehouse au Royaume-Uni pour la distribution spécialisée –, ce qui porte à environ 10.000 le nombre des points de vente qui distribuent des PC Dell dans le monde.

"Nous sommes ravis d’être parvenus à cet accord avec Carrefour, qui permet aux consommateurs d’avoir un accès plus large à nos produits et ce dans un environnement où ils pourront voir et toucher nos produits avant de les acheter", a déclaré Mark Ormerod, vice-président en charge du marketing grand public pour les activités de Dell EMEA.

"Dès janvier prochain, les consommateurs européens pourront nous téléphoner, aller sur notre site ou se rendre dans un magasin pour bénéficier, au meilleur prix, des produits Dell déjà récompensés."

Source : http://www.silicon.fr/fr/news/2007/11/27/Dell_chez_Carrefour

Microsoft entre à l'Université de Lyon 1

En signant un accord de partenariat avec l'Université Claude Bernard Lyon 1, Microsoft France se rapproche de l'une des plus importantes universités françaises, et de ses 35 000 étudiants travaillant dans des filières médicales et scientifiques.

L'accord porte sur un engagement de 180 000 € sur trois ans et donnera la possibilité aux étudiants de réaliser des stages et d'avoir un accès prioritaire aux offres d'emploi chez Microsoft et ses partenaires. L'éditeur a également mis 60 000 € de plus sur la table pour décerner des bourses aux étudiants manquant de moyens financiers, selon des critères définis par l'Université.

Les étudiants seront informés des opportunités de stages et emplois chez l'éditeur et ses partenaires par le biais du forum emploi et du portail Université-Entreprises de Lyon 1. Ils auront également accès à la plateforme de formation aux nouvelles technologies de Microsoft, IT Academy, ainsi qu'au programme MSDN AA qui permet l'utilisation gratuite des logiciels Microsoft dans le cadre des activités pédagogiques. Les élèves pourront prendre connaissance des travaux de recherche post-doctorants, en lien avec les centres de recherche de Microsoft. Ils auront l'opportunité d'y effectuer leur thèse et d'y suivre leurs stages de fin d'études.

Les appels à projets internationaux publiés par les centres de recherche de Microsoft seront par ailleurs portés à la connaissance des enseignants-chercheurs dans le cadre de ce partenariat.

Source : http://www.lemondeinformatique.fr/actualites/lire-microsoft-entre-a-l-universite-de-lyon-1-24696.html

Google pourrait lancer prochainement son service de stockage en ligne

Evoqué dès mars 2006, et présenté sous le nom de Gdrive, le service de stockage de fichiers en ligne de Google refait surface. C'est dans les colonnes du Wall Street Journal que la rumeur du lancement de ce service reprend de la vigueur. Selon le WSJ, Google permettrait à ses utilisateurs de stocker n'importe quel type de fichiers, d'y accéder depuis n'importe PC connecté au Web et de les partager. Si l'hégémonique spécialiste de la publicité en ligne n'a pas commenté ces rumeurs, un de ses porte-paroles a néanmoins indiqué que « le stockage est une composant important de la volonté de faire entrer les applications Web dans la vie des consommateurs et des professionnels ».

Le service, qui pourrait voir le jour au cours des prochains mois, offrirait un espace de stockage limité et gratuit, tout en proposant une capacité plus large, voire illimitée, et payante. Le tout reposerait sur une interface Web simple permettant à tous les utilisateurs d'utiliser aisément le service depuis n'importe quel navigateur.

Le stockage en ligne de Google s'intégrerait au sein de ses multiples services - Apps, Gmail, Picasa. Le WSJ évoque ainsi la possibilité laissée à l'utilisateur de lancer une requête à partir d'un mot clé pour rechercher un document parmi tous ceux inclus dans son espace personnel, qu'il s'agisse d'un courriel, d'un fichier créé avec Apps, d'une photo stockée sur Picasa, ou de n'importe quel autre fichier.

Le WSJ évoque deux écueils sur lesquels le vaisseau Google risque de s'échouer. En premier lieu, le pantagruélique moteur pourrait être tenté de décliner son offre publicitaire sur son service de stockage et de la contextualiser en fonction du contenu des fichiers mis en ligne par les utilisateurs. Une démarche intrusive que les internautes n'apprécieraient certainement guère. L'autre récif repose sur les droits d'auteur : en permettant à ses utilisateurs de déposer et de partager n'importe quel type de fichier, Google prend le risque de voir se multiplier le stockage de documents soumis au copyright et d'aiguiser le mécontentement des ayants droit, souvent prompts à ester.

Source : http://micro.lemondeinformatique.fr/actualites/lire-google-pourrait-lancer-prochainement-son-service-de-stockage-en-ligne-1820.html

En France, 63% enseignants déplorent le manque d'équipement IT

Malgré un taux d'équipement jugé plutôt faible dans les établissements français, enseignants et élèves ont pleinement conscience de l'intérêt de l'utilisation des technologies dans le cadre scolaire. Une étude menée par Smart Technologies, spécialiste d'outils interactifs, avec l'institut de sondage Opinionway, auprès de 1 600 enseignants et élèves, montre qu'elles sont devenues quasiment incontournables dans l'enseignement actuel : 84% des professeurs estiment que les technologies augmentent la motivation des élèves.

Quant à ces derniers, ils sont 89% à déclarer que les technologies participent à rendre les cours plus intéressants et 80% à estimer qu'elles les aident à apprendre plus facilement.

Pourtant, même si tout le monde s'accorde à dire que les technologies sont des outils nécessaires dans l'école d'aujourd'hui, la France reste l'un des pays européens où les technologies n'ont pas encore une place de choix dans le quotidien des enseignants et des élèves : 63% des enseignants estiment que leur établissement n'est pas bien équipé et 67% des élèves déclarent que leur établissement scolaire tarde à les adopter.

Si les professeurs semblent dans leur grande majorité très intéressés par les technologies, ils semblent manquer d'information et de formation. 54% affirment ne pas être personnellement informés et 67% déclarent ne pas être bien formés à l'utilisation des technologies.

Source : http://www.lemondeinformatique.fr/actualites/lire-en-france-63-enseignants-deplorent-le-manque-d-equipement-it-24693.html

Les données livrées sur les réseaux sociaux pourraient nuire à la carrière des jeunes

Les millions de jeunes qui fréquentent les réseaux sociaux ont rarement conscience que les informations qu'ils diffusent pourraient un jour leur porter préjudice, notamment lors de la recherche d'un emploi ou d'une école. C'est ce que révèle une étude publiée par l'ICO (Information Commissioner's Office), une autorité indépendante britannique équivalente de la CNIL en France.

Plus de la moitié des adolescents interrogés (2 000 en tout, âgés de 14 à 21 ans) déclarent partager des données personnelles sur Internet, sans se poser de questions. Paradoxalement, 71% d'entre eux admettent qu'ils n'apprécieraient pas que leur futur employeur ou directeur d'école se procurent des informations à leur sujet à travers une simple recherche sur Internet. « Le prix à payer pour le futur professionnel d'un individu peut être très lourd si des éléments négatifs sont retrouvés, d'autant que de plus en plus d'institutions ont recours à ce type de pratiques pour sélectionner un candidat », a commenté David Smith, membre de l'ICO.

Des actions de prévention

Pire encore, l'excès de confiance des adolescents peut les mettre en danger. La Commission souligne en effet que deux tiers des jeunes acceptent de nouveaux « amis » dans leur réseau sans même les connaître, 54% d'entre eux ignorent que leurs informations peuvent être exploitées à des fins publicitaires, 60% laissent leur date de naissance, 25% font mention de leur parcours scolaire ou familial et 10% fournissent même leur adresse postale !

L'ICO pointe du doigt un réel manque d'information et de prévention. La plupart des jeunes ignorent en effet que certains de leurs passages sur Internet laissent des traces. « Internet n'est pas l'univers sécurisé et amusant qu'ils imaginent, et nous nous devons de mener des actions de prévention auprès d'eux », a encore déclaré David Smith. L'ICO a d'ailleurs annoncé le lancement d'un site Internet pour aider la jeunesse à comprendre ses droits, mais surtout à mieux se protéger contre les dangers du Web.

Source : http://www.lemondeinformatique.fr/actualites/lire-les-donnees-livrees-sur-les-reseaux-sociaux-pourraient-nuire-a-la-carriere-des-jeunes-24697.html

mardi 27 novembre 2007

Rapport Oliviennes : les mesures, les réactions, l'opposition de YouTube et Dailymotion

La mission dirigée par le patron de la Fnac a donc rendu ses conclusions à Nicolas Sarkozy. Les négociations ont été âpres : les concessions lâchées par l'Industrie pour contrebalancer la répression sont plutôt faiblardes

Le énième plan pour lutter contre le piratage a donc été remis ce vendredi au président de la République, Nicolas Sarkozy, un plan concocté par les membres de la mission de réflexion dirigée par Denis Oliviennes, patron de la Fnac.

Nicolas Sarkozy, qui a fait depuis longtemps du piratage un de ses nombreux chevaux de bataille (depuis qu'il occupait la place Beauveau en 2006) a ainsi déclaré à cette occasion: "Je veux saluer ce moment décisif pour l'avènement d'un Internet civilisé, qui représente une nouvelle frontière, un territoire à conquérir mais qui ne doit pas devenir un Far-West high-tech".

L'anarchie des échanges, le non contrôle, voilà ce qui fait frémir notre président. Et de souligner: "Le clonage et la dissémination de fichiers à l'infini ont entraîné depuis cinq ans la ruine progressive de l'économie musicale".

"Si tout le monde vole la musique et le cinéma, on ne va pas légaliser le vol. Et en même temps, nous savons tous qu'on ne va pas non plus mettre tous les jeunes en prison", ajoute le locataire de l'Elysée.

Il fallait donc trouver un juste milieu, entre répression et prévention. Et cette troisième voie semble avoir été trouvée dans cet accord entre industriels du diverstissement, fournisseurs d'accès et Etat, estime Nicolas Sarkozy. Ce dernier qualifie cet accord d'"historique" , "solide et équilibré", résultat d'une "première grande alliance nationale autour de propositions précises et opérationelles"...

Quel entrain... Pourtant, les remèdes préconisés par la mission Oliviennes n'ont rien de révolutionnaires, surtout, ils mettent en avant certains outils répressifs inquiétants tout en laissant en place la loi actuelle qui punit toujours le simple téléchargeur de trois ans de prison et 300.000 euros d'amende.

Nicolas Sarkozy précise tout de même que l'accord signé n'était pas fermé, et invité toutes les parties concernées à faire un point dans six mois... Car les réajustement ne manqueront pas...

Quelles sont donc ces mesures ? L'essentiel était connu depuis quelques jours déjà... avec un volet répressif bien étoffé et quelques carottes... bien rares.

La riposte graduée

"Sur le principe de la responsabilité de l'abonné, du fait de l'utilisation frauduleuse de son accès, une autorité publique spécialisée, placée sous l'autorité du juge" sera saisie par les ayants droit en cas de téléchargement illégal. "Elle enverra sous son timbre, par l'intermédiaire des fournisseurs d'accès à internet, des messages électroniques d'avertissement au titulaire de l'abonnement."

Cette autorité devrait être l' Autorité de régulation des mesures techniques, c'est elle qui enverra des mails d'avertissement aux peertopistes. Surtout, elle pourrait demander aux fournisseurs d'accès de couper temporairement l'accès Internet des plus gros téléchargeurs. C'est une première : le principe de sanction graduée avec amende (qui avait fait les beaux jours de la loi DADVSI mais qui avait été retoquée par le Conseil constitutionnel) est écarté au profit de cette mesure bien plus répressive.

Elle pourra donc demander des sanctions "allant de l'interruption de l'accès à l'internet à la résiliation du contrat internet", peut-on lire dans le rapport.

Le filtrage

Les FAI, qui refusaient jusqu'à aujourd'hui de fliquer leurs abonnés ont du accepter la mise en place d'une phase de test de filtrage des réseaux de 24 mois qui pourrait déboucher sur une adoption si les résultats sont jugés satisfaisants... Ils se sont ainsi engagée à "collaborer avec les ayants droit sur les modalités d'expérimentation des technologies de filtrage des réseaux disponibles, et les déployer si les résultats s'avèrent probants, et la généralisation techniquement et financièrement réaliste".

Les sites d'échange

Pour éviter que des oeuvres protégées circulent sur les YouTube et autres Dailymotion, le rapport propose la généralisation des empreintes afin de marquer les contenus sous copyright . En contre-partie, les ayants droit s'engagent à mettre à leur disposition leurs sources afin de mettre en place "des catalogues d'empreintes de référence aussi larges que possible".

Mais cette perspective ne semble pas réjouir les géants de ce secteur qui se considèrent comme hébergeurs et non pas éditeurs de contenus. Google (YouTube) et Dailymotion ont ainsi refusé de signer cet accord. YouTube rappelle avoir "déjà développé, en collaboration avec des ayant-droit d'envergure internationale, un certain nombre d'outils, dont les outils d'identification vidéo, visant à protéger les droits d'auteurs en ligne".

Et d'expliquer : "Nous n'avons pas signé cet accord car nous n'étions pas impliqués dans les discussions préliminaires et nous pensons que l'obligation pour les plateformes de surveillance générale des contenus hébergés n'est pas une solution satisfaisante".

Du côté de Dailymotion, on souscrit "pleinement au principe de collaboration en toute bonne foi entre les prestataires d'hébergement et les ayant-droits pour généraliser l'utilisation de technologies de reconnaissance des contenus. Toutefois un passage de l'accord est en contradiction avec le régime de responsabilité d'un hébergeur tel que défini dans la Directive Européenne Commerce Electronique et dans la LCEN et ne peut donc recueillir l'assentiment de Dailymotion et Kewego qui appellent donc de leurs voeux une rapide prise en compte de la réalité juridique communautaire".

La plate-forme rappelle également avoir mis en place des outils de filtrage tout en soulignant que "leur efficacité dépend directement de l'implication des ayant-droits dans leur usage, en particulier en déposant dans des bases de données les empreintes de leurs contenus".

Les DRM

Du côté des carottes, l'Industrie s'est engagée à "rendre disponible les catalogues de productions musicales françaises sans mesures techniques de protection". On comprendra donc que la suppression des DRM (qui pénalisent l'essor de la musique en ligne légale et qui empêche le droit à la copie privé) ne concernera que le catalogue français. Et encore : les ayants droit ont obtenu un an de délai "à compter du fonctionnement effectif du mécanisme d'avertissement et de sanction prévu par loi"... Tout cela ressemble à un coup d'épée dans l'eau.

La VOD

Seule vraie mesure vraiment utile pour favoriser l'offre légale, le raccourcissement des délais de mise en ligne des films en VOD. Il s'agit de faire coïncider sortie en DVD et en VOD afin d'éviter la tentation du piratage. Mais là encore, les ayants droit ont obtenu du temps puisque cette mesure ne s'appliquera qu' "à compter du fonctionnement effectif du mécanisme d'avertissement et de sanction".

En conclusion...

Bref, le téléchargeur semble être une fois la cible principale de ce plan et les concessions lâchées par l'Industrie du divertissement sont bien faibles. Ce constat ressort d'ailleurs de la plupart des réactions d'associations de consommateurs ou d'internautes.

L'association des Audionautes dénonce un rapport "obsolète. Les solutions qu’il préconise auraient pu être proposés en 1997, à l’époque de Napster".

Et de poursuivre : "Le filtrage de l’Internet est une solution dépassée, techniquement impossible, contraire au droit de la concurrence, contraire aux libertés individuelles, et c’est un frein à l’innovation. L’application de la loi DADVSI est inutile car la loi est déjà dépassée par les artistes qui commencent à distribuer eux-même leur musique sur internet, et par les nouveaux abonnements au forfait (neuf, free, sfr, etc.). Le prétendu « piratage» correspond le plus souvent à une activité de copie privée autorisée par la loi. Les solutions répressives sont inutiles, elle ne servent ni les artistes, ni le public. Les solutions de tracking des internautes et de ripostes graduées sont anticonstitutionnelles, et les ayants-droits sont incapables d’offrir les garanties réclamées par la CNIL".

L’Adami qui gère les droits des artistes interprètes "constate et regrette que les organisations représentant les consommateurs et le public n’aient pas fait partie des négociateurs de cet accord, alors que l’efficacité des dispositifs destinés à lutter contre la gratuité dépend aussi du consentement du public et donc de son adhésion aux objectifs poursuivis".

La Sacem, qui reverse les droits d'auteurs juge au contraire que "la perspective ainsi offerte d'un retour à un cercle plus vertueux aura des chances de se réaliser si toutes les parties se mobilisent de manière déterminée et loyale dans la mise en œuvre des engagements pris aujourd'hui. De ce point de vue, les dispositions que le Gouvernement s'apprête à présenter au Parlement sont de bon augure".

Un point qui n'est pas du tout partagé par l'UFC Que Choisir. L'association estime que ce "rapport (est) très dur, potentiellement liberticide, antiéconomique et à contresens de l’histoire numérique".

Et de poursuivre : "Une fois encore la question cruciale et prioritaire de l’amélioration de l’offre en ligne a servi d’alibi à une initiative quasi exclusivement consacrée à la mise en œuvre de mesures répressives à l’encontre des internautes".

De son côté, la ligue Odebi estime qu'"en pratique, il serait inacceptable que le pouvoir du juge soit transféré à une Autorité". "C’est une véritable justice parallèle qui serait mise en place si “cette autorité” devait disposer “des pouvoirs de sanction à l’égard des fournisseurs d’accès"

"La suspension de l'abonnement revient à une privation des droits civiques numériques, ce qui est totalement disproportionné", juge Odébi.

Source : http://www.silicon.fr/fr/news/2007/11/26/rapport_oliviennes___les_mesures__les_r_actions__l_opposition_de_youtube_et_dailymotion

Pour Torvalds, la flexibilité est la force de Linux

Interrogé par les journalistes d'InformationWeek, Linus Torvalds fait le point sur ce que 2008 réservera à son système d'exploitation favori. Virtualisation, ou nouveaux matériels pour lui, la meilleure arme de Linux reste sa flexibilité

Pour Linus Torvalds, au-delà de tout argument idéologique, la force de Linux par rapport aux autres systèmes d'exploitation - et notamment Windows - tient en un mot : flexibilité. « C'est la plus grande force de Linux. Quand vous achetez un système d'exploitation chez Microsoft, non seulement vous ne pouvez le réparer seul, mais il a été développé pendant des années en suivant la vision du marché (Ndlr, et de ses besoins) d'une seule entité », affirme-t-il dans une interview accordée par courriel à InformationWeek.

« Par contraste, regardez où Linux est utilisé. Des téléphones portables ou des appareils embarqués si petits que personne ne songerait à les appeler ordinateur, jusqu'aux plus gros supercalculateurs du Top 500 ! Et tout cela vient du fait que toute personne intéressée peut participer à son développement et qu'aucune entité ne contrôle la direction qu'il prendra. »

Pas même Linus Torvalds. Il se décrit lui-même comme « absolument pas intéressé par la virtualisation », mais reconnaît que ce sera un axe de développement important pour Linux en 2008, tout en affirmant qu'il ne faudra pas s'attendre à un modèle de virtualisation en « taille unique » pour couvrir tous les besoins des entreprises.

Un autre axe de développement important pour le noyau est la compatibilité avec les nouveaux matériels arrivant en 2008. « La situation dans les domaines graphiques et les réseaux sans fil évolue vite et je pense que cela sera une part importante de notre travail en 2008. » Personnellement, il s'intéresse plus aux disques SSD à base de mémoire flash : « Je crois fermement à la réduction du temps de latence, et certains des meilleurs SSD changent totalement la donne dans ce domaine, ce qui peut avoir de gros impacts pour le noyau. Bien qu'ils soient actuellement chers pour rester des acteurs mineurs, cela risque de changer en 2008 et dans les années à venir. »

Source : http://www.lemondeinformatique.fr/actualites/lire-pour-torvalds-la-flexibilite-est-la-force-de-linux-24681.html

lundi 26 novembre 2007

Linux gagne en popularité sur les postes de travail des PME

Pour la troisième année consécutive, la Linux Foundation lance un sondage sur l'utilisation de Linux sur le poste de travail. Les premiers résultats montrent que le système d'exploitation - et surtout les déclinaisons d'Ubuntu - y est de plus en plus populaire

Alors que le troisième sondage annuel de la Linux Foundation sur l'usage de Linux sur le poste de travail ne se terminera officiellement que le 30 novembre, les premiers résultats sont déjà riches d'enseignement.

Avec un nombre de répondants ayant déjà doublé par rapport à l'année précédente (20 000 contre environ 10 000), il en ressort que Linux est majoritairement installé dans les PME (à 68,4%) ayant moins de 100 PC. A 9,7 %, il est présent dans les sociétés de taille moyenne ayant de 101 à 500 PC et à 6,2 % dans les entreprises ayant plus de 500 PC.

Pourtant, même présent en entreprise, Linux n'est pas le système d'exploitation privilégié. Seuls 39,5 % des sondés déclarent utiliser Linux sur plus de la moitié des postes, tandis que 59,6 % avouent utiliser une version de Windows sur plus de la moitié de leurs postes de travail.

Linux en tant qu'OS principal

Autre changement. Les postes de travail sous Linux ne sont plus principalement destinés à des développeurs, ni déployés dans le cadre de projets pilotes. Quelque 64 % des sondés déclarent ainsi utiliser Linux sur leurs postes clients ordinaires, tandis que 51 % d'entre eux l'utilisent pour le poste de leurs développeurs. Dans 62,2 % des cas, il s'agit de véritables déploiements et non de simples tests.

Seuls 16,3 % des sondés - ayant répondu volontairement sur le site de la Linux Foundation - affirment qu'ils n'utiliseront jamais Linux sur un poste de travail.

Parmi les distributions installées, avec 54,1 % des résultats (dans un questionnaire acceptant plusieurs réponses par sondé), Ubuntu semble la favorite, suivie des différentes déclinaisons de Red Hat à 50,2 % et par les distributions de Novell/SUSE, à 35,2 %. Des résultats qui peuvent encore varier d'ici à la fin du sondage.

Le sondage de la Linux Foundation (en version française)

Source : http://www.lemondeinformatique.fr/actualites/lire-linux-gagne-en-popularite-sur-les-postes-de-travail-des-pme-24667.html

Education nationale : clés USB pour les enseignants, visioconférence et malvoyants

Le ministre de l'Education veut "favoriser dans toutes les classes l'utilisation de contenus numériques"


Les 213.000 clés USB distribuées par le Conseil régional d'Ile-de-France font des émules, à plus petite échelle mais avec un contenu plus riche...

Le ministre de l'Education, Xavier Darcos, vient en effet de révéler à l'occasion du salon Educ@tice que 43.000 nouveaux enseignants recevront une clé USB avec des programmes et des ouvrages numériques, un "ensemble de ressources (…) comme supports de leurs présentations de cours", avec par exemple l'Encyclopedia Universalis, le Louvre ou le Robert Junior.

L'opération se déroulera en deux temps. 18.000 nouveaux instituteurs, ainsi que les professeurs de mathématiques, sciences-physiques, histoire-géographie et sciences de la vie et de la terre, seront les premiers à recevoir une clé, en février 2008. L'expérience sera généralisée en septembre 2008, avec 25.000 clés USB qui seront distribuées à "l'ensemble des enseignants néotitulaires du 1er et du 2nd degré".

L'opération a un coût : 1,6 million d'euros.

Par ailleurs, le ministre a également annoncé le déblocage d'un budget de 500.000 euros, dès 2008, en vue d'ouvrir les élèves en situation de handicap aux technologies de l'information et de la communication.

Concrètement, cela se traduira par une amélioration de l'accessibilité aux déficients visuels des dix pages les plus consultées du ministère de l'Education et leur traduction en langage des signes. Ainsi que par la création d'un portail http://www.ecolepourtous.education.fr/ pour la rentrée 2008.

Enfin, en plus des tableaux blancs interactifs (tactiles) qui devraient se généraliser dans les écoles primaires, le ministre a lancé un projet de visioconférence sur 20 sites pilotes, prélude à l'équipement de 1000 écoles pour la rentrée 2008.

Pour cette dernière opération, le ministre a indiqué qu'il entend "faciliter l'introduction, dans les écoles, de dispositifs de visioconférences destinées à favoriser l'apprentissage des langues étrangères en faisant dialoguer les élèves avec un interlocuteur étranger."

Source : http://www.silicon.fr/fr/news/2007/11/23/education_nationale___cl_s_usb_pour_les_enseignants__visioconf_rence_et_malvoyants

Etudier la danse des abeilles pour optimiser le rôle des serveurs Web

Comment améliorer l'efficacité des serveurs Web ? Selon deux chercheurs de l'université de Géorgie, il suffit de s'inspirer d'un essaim d'abeilles dans sa collecte de nectar

Sans intelligence centralisé, les abeilles ouvrières arrivent à communiquer efficacement pour accomplir des tâches complexes comme indiquer aux autres où se trouvent les fleurs, récolter du pollen et le transformer en nectar. A partir de ces observations, deux chercheurs de l'institut de technologie de Géorgie, Craig Tovey, entomologue amateur, et Sunil Nakrani, détaché de l'université d'Oxford, ont conçu une méthode pour améliorer l'efficacité des serveurs Web.
En effet, les abeilles et les serveurs Web sont confrontés au même type de problème. Chaque essaim n'a qu'un nombre limité d'ouvrières pour accomplir toutes les tâches nécessaires à sa survie, qu'il y ait une abondance de fleurs sur lesquelles collecter le pollen ou non. De même, chaque site Web dépend d'un nombre fini de serveurs ou de ressources informatiques quels que soient le nombre de visiteurs à un instant T et leurs demandes (accéder à une vidéo ou effectuer un achat). Pour pallier ce problème, les abeilles ont un système de danse dans lequel l'éclaireuse indique aux autres ouvrières le lieu de récolte (la direction prise par la danseuse), la distance par rapport à la ruche (le nombre de détours) et la richesse potentielle de la récolte (la durée de la danse).

Les deux chercheurs se sont inspirés de ce modèle pour créer un « parquet de danse » virtuel où les serveurs Web peuvent s'échanger des informations sur les tâches à accomplir. Il s'agit de placer une « publicité » interne à un pool de serveurs pour indiquer une tâche à accomplir. Plus longtemps cette publicité reste affichée, plus elle est urgente et potentiellement rentable. Et donc plus de serveurs inactifs l'accompliront.

Testé dans des conditions réelles de trafic, ce parquet de danse a pu augmenter l'efficacité des sites de 4 à 25 %.

Source : http://www.lemondeinformatique.fr/actualites/lire-etudier-la-danse-des-abeilles-pour-optimiser-le-role-des-serveurs-web-24657.html

Deux prétendants supplémentaires sur le terrain des suites bureautiques en ligne

Après Zoho, Thinkfree ou Buzzword, le traitement de texte au format Flash signé Adobe, Google Apps et Office Live voient se profiler deux nouveaux prétendants sur le terrain des suites bureautiques en ligne

Le 5 décembre prochain, Transmedia, une startup bénéficiant du soutien d'Intel, lancera ainsi une déclinaison à destination des PME de son ensemble d'applications hébergées, réunies sous l'étiquette Glide. L'éditeur a franchi un premier pas, la semaine dernière, en mettant en ligne Glide Crunch, un tableur disponible au téléchargement, qui stocke les fichiers créés à la fois en local et sur les serveurs de Transmedia, les rendant ainsi accessibles depuis n'importe quel poste de travail. Glide Crunch est, en outre, compatible avec Windows, Linux et Mac. Il sera inclus dans la suite bureautique conçue pour les entreprises, au même titre que les applications d'ores et déjà disponibles en mode hébergées, comme un traitement de texte, un gestionnaire de courriels, un outil de présentations ou un module de centralisation des fichiers. La suite comprendra en plus des outils spécifiquement destinés aux professionnels, notamment pour la gestion de projets.
Les entreprises pourront choisir d'héberger le produit sur leur propre serveur ou de passer par ceux de Transmedia.

De son côté, le co-fondateur de Hotmail, l'Indien Sabeer Bhatia, prépare son Live Documents, une application basée sur Flash et Flex, permettant d'accéder et d'éditer ses documents en ligne, ainsi que de les partager avec d'autres utilisateurs. L'outil ne s'inscrit pas en concurrence de la suite Office de Microsoft mais plutôt en complément : il offre ainsi un module à installer sur le poste de travail pour doter Office de fonctions collaboratives. Ainsi, un utilisateur peut créer un document Word sur sa machine, lequel sera envoyé par la suite sur les serveurs de Live Documents lors de la prochaine connexion. L'usage sera gratuit pour les particuliers et soumis au paiement d'un abonnement ou l'achat d'une licence pour les entreprises.

Live Documents se distingue donc des traditionnelles suites en ligne - Google Apps en premier lieu - en permettant « même à des utilisateurs avancés d'Office d'utiliser nos services », explique Sumanth Raghavendra, le PDG d'IntaColl, la société fondée par Sabeer Bhatia. Ce dernier, qui avait vendu Hotmail à Microsoft pour 400 M$ en 1997, estime que Live Documents devrait connaître encore plus de succès que le déjà très populaire webmail de Microsoft.
Pour l'heure limité à un usage lié à Office, l'outil devrait être utilisable avec OpenOffice prochainement.

Source : http://micro.lemondeinformatique.fr/actualites/lire-deux-pretendants-supplementaires-sur-le-terrain-des-suites-bureautiques-en-ligne-1813.html

Copie des DVD : Hollywood retourne sa veste

Après avoir copieusement raté le virage du numérique, le camp des pro-DRM pense maintenant que copier des DVD, "c'est bien !"

Heureux cinéphiles ! Les aficionados américains du cinéma et des supports physiques vont pouvoir copier légalement certains films en leur possession produits par Hollywood, comme les trilogies "Die Hard" et "Harry Potter".

Le mouvement est un peu tardif, et les consommateurs n'ont pas attendu Hollywood pour joyeusement s'adonner à la copie illégale de leurs DVD. Car les outils anti-DRM existent, et une partie des acheteurs maîtrise parfaitement les techniques de copie. "Mais il vaut mieux tard que jamais" dit le dicton...

L'idée au cœur de cette initiative est de permettre aux cinéphiles de faire des copies de leurs films préférés afin de pouvoir les visionner sur les équipements portables, par exemple un téléphone (avec énorme capacité de stockage), un iPod vidéo, une PSP, un notebook, etc.

Jusqu'à présent, ils n'avaient que deux solutions. Racheter le film dans un autre format adapté à un équipement spécifique par exemple en UMD pour la PSP. Ou, deuxième option, certainement la plus utilisée, contourner les systèmes de protection et retravailler le film pour obtenir un format compatible avec leurs différents besoins.

Rappelons qu'en France, le possesseur d'une oeuvre (sur CD ou DVD) a le droit d'en faire une copie de sauvegarde pour un usage familial. C'est le fameux droit à la copie privée, financé par des taxes payées sur les supports vierges, les disques durs, les baladeurs et bientôt les téléphones.

L'initiative d'Hollywood passe un peu inaperçue, d'abord parce que le catalogue ouvert à la copie est pour l’instant quasi vide et parce que les cinéphiles qui copient leurs propres DVD ne se sont jamais vraiment considérés comme des pirates. Et que dire de l'abonné à un vidéo club qui se fait discrètement une copie de DVD ? Contrairement aux internautes, il n'est quasiment jamais affublé de ce surnom peu flatteur de 'pirate'... Pourtant, il outrepasse lui aussi les verrous techniques que sont les DRM.

Dans la vie de tous les jours, la pratique est courante, les consommateurs estiment qu'il s'agit d'un droit, même si selon les textes et le principe du 'copyright' ils se mettent le doigt dans l’œil. Encore, un bel exemple de décalage entre réalité et légalité.

En effet, pourquoi faire une différence entre une copie VHS et une copie DVD ? Vivons nous dans une ère de ségrégation technologique ? Non, il est plus vraisemblable de considérer qu'en agissant de la sorte, les éditeurs de contenus pensent protéger leurs intérêts. Seulement, à l’instar de certains politiques, leur niveau de popularité n'a jamais autant flirté avec le zéro absolu.

Copie autorisée, mais pas gratuite

Deux studios américains viennent donc de franchir un cap, mais il ne faut pas rêver, l’offre a un coût... Ces DVD copiables légalement coûtent 5 dollars de plus que les galettes classiques.

C’est d’ailleurs là que le bât blesse ! Les DRM ne fonctionnant que très moyennement, l’on peut s’interroger sur la viabilité du modèle économique.

La première Major à sortir des sentiers battus est la Twentieth Century Fox, avec pour l'instant deux titres copiables : Live Free or Die Hard (édition spéciale et collector). Fox vient également de présenter la plate-forme Fox Digital Copy. L'utilisateur peut utiliser ce site pour transformer un disque original dans un format compatible avec des équipements portables.

Warner Brothers va également suivre ce mouvement. À partir du 11 décembre 2007, une édition spéciale du dernier opus de Harry Potter sera dans les échoppes ; et selon nos informations, elle sera ouverte à la copie.

Les deux offres ont des similitudes. D'abord, les disques sont présentés comme des éditions spéciales. Un terme un peu galvaudé à notre goût. Par contre, la transformation du format du film sur la plate-forme Fox est gratuite.

Les deux studios utilisent le DRM de Windows et le lecteur Windows Media Player 10... Dans les deux cas, deux versions supplémentaires du film sont offertes, une pour PC et une pour les portables .

Fox précise que la version pour PC de Die Hard est encodée à 1.6 mbps (soit un espace de stockage nécessaire de 1.5 GB), la version pour les équipements portables tourne à 768 KB/Sec (environ 1 GB).

Du côté de la Warner, l'on précise que la version pour PC des dernières aventures d'Harry Potter est encodée en 1 mbps, et la version portable en 700 kbps.

Source : http://www.silicon.fr/fr/news/2007/11/21/copie_des_dvd___hollywood_retourne_sa_veste

McAfee expose sa vision de la sécurité pour 2008

L'éditeur prévoit une augmentation des menaces contre Windows Vista et le Web 2.0, une hausse du phishing et des attaques exploitant les vulnérabilités dans les solutions de VoIP, et enfin un déclin des adwares.

En 2008, Windows Vista devrait dépasser les 10 % de parts du marché et la publication du SP1 devrait accélérer l’adoption du système d'exploitation Microsoft. En conséquence, les pirates et les auteurs de logiciels malveillants devraient commencer à s’intéresser aux moyens de circonvenir les défenses de l'OS. Depuis la sortie de Vista, 19 vulnérabilités ont été annoncées. On peut s’attendre à ce que 2008 en enregistre bien davantage.

Les piratages et les logiciels malveillants rencontrés sur Salesforce.com, Monster.com et MySpace (entre autres) représentent la nouvelle tendance, qui consiste à attaquer les applications en ligne et les sites de réseaux sociaux.

Les sites Web 2.0 servent ainsi à distribuer des logiciels malveillants, mais aussi à récupérer des données en écrémant les informations que les gens partagent en ligne, afin de donner davantage de crédibilité aux attaques. McAfee Avert Labs s’attend à une forte progression de ce genre d’activité en 2008.

Après les quelques arrestations d’administrateurs de botnets qui ont fait grand bruit en 2007, les criminels vont chercher de meilleures méthodes pour couvrir leurs traces. 2007, a enregistré 10 attaques classées très sévères, contre aucune en 2006.

Les menaces ciblant les économies virtuelles progressent plus vite que celles qui visent l’économie réelle. Les joueurs dépensent beaucoup d’énergie, de temps et d’argent dans les mondes virtuels. Leur monnaie virtuelle, leurs objets, leurs relations, et même « leurs pouvoirs » sont convoités. En 2007, le nombre de Trojans visant le vol des mots de passe pour les jeux en ligne a augmenté plus vite que ceux qui visent les banques.

La chasse aux fournisseurs de logiciels de publicité a eu des effets positifs. La combinaison des actions en justice, de meilleures défenses et d’une connotation négative pour ce mode de publicité, a participé à lancer le déclin de cette menace en 2006 et cette tendance a été confirmée en 2007.

Les cyber-escrocs vont viser des sites plus petits et moins populaires, avec leurs scams de phishing destinés au vol de données. En effet, il est désormais plus risqué d’attaquer les grands sites, car ils sont mieux protégés et la réaction est plus rapide. Mais sachant qu’un grand nombre d’internautes utilisent souvent les mêmes mots de passe, les sites moins immédiatement rémunérateurs devraient devenir une autre cible pour des criminels à la recherche d’informations à réutiliser.

Par rapport à 2006, le nombre des vulnérabilités concernant les applications de Voix sur IP a déjà plus que doublé. McAfee a enregistré plusieurs cas d’attaques de “Vishing” (phishing au travers de la téléphonie VoIP), et une condamnation pour “phreaking” (utilisation frauduleuse d’un compte VoIP piraté – détournement de minutes). Le groupe s’attend donc à une progression de 50 % des attaques sur la VoIP en 2008.

Source : http://www.silicon.fr/fr/news/2007/11/21/mcafee_expose_sa_vision_de_la_s_curit__pour_2008_

Baisse du prix des logiciels en vue, selon Gartner

Le prix des logiciels pourrait baisser. Alors que les éditeurs n'ont jamais été aussi riches et résistent sans ciller à la baisse du prix des matériels, le Gartner envisage un retournement de tendance.

Selon ce cabinet, une conjonction de facteurs concourt à une baisse du prix des logiciels. Il s'agit de l'externalisation, des logiciels en ligne (SaaS, software as a service), de l'exacerbation de la concurrence, des applications à code ouvert et, enfin, du développement des prestataires indépendants de maintenance applicative.

Ainsi, à compter de 2011, un tiers des nouvelles applications sera proposé sous la forme de logiciels en ligne. Les éditeurs traditionnels devront s'adapter à cette nouvelle donne.
Par ailleurs, le développement des éditeurs chinois et le déplacement des pôles de croissance vers des marchés comme la Chine, de l'Inde et du Brésil devraient contribuer à faire chuter le coût des logiciels. En particulier sur les infrastructures (serveurs, OS, outils de développement et SGBD).

Source : http://www.lemondeinformatique.fr/actualites/lire-baisse-du-prix-des-logiciels-en-vue-selon-gartner-24632.html

jeudi 15 novembre 2007

Top 500 : Sept millions de milliards d'opérations à la seconde

La course à la puissance en tête des plus grands systèmes de calcul s'accompagne d'une généralisation des processeurs x86 sous Linux

Les évolutions du top 500 - le classement des 500 plus gros systèmes informatiques au monde - reflètent les grandes tendances de l'industrie. Le secteur HPC (High performance computing) n'est plus l'univers exceptionnel qu'il était jusqu'à il y a peu de temps. Tandis que des composants de machines de tous les jours trouvent leur place dans ces super clusters de calcul scientifique, l'architecture des systèmes d'entreprise s'inspire de plus en plus des modèles élaborés dans les plus grands centres de calcul.

Cette "banalisation" s'accompagne d'une course à la performance toujours plus rapide. Le trentième classement semestriel du top 500 montre que la puissance totale de ce parc d'HPC a augmenté de 50% en six mois pour atteindre 6,97 Pétaflops*. Le système le moins puissant produit tout de même 5,9 Téraflops*. Si les États-Unis caracolent en tête, saluons l'apparition du premier système indien dans les dix plus puissants de la planète.

L'arrivée des processeurs x86 64 bit (alias x64) multi-coeurs joue un rôle clé dans cette montée en puissance. Plus de 80% des systèmes reposent sur des systèmes x86 32 ou 64 bit.
L'IBM Blue Gene/L du laboratoire national Lawrence Livermore est toujours en tête depuis novembre 2004. Sa dernière mise à jour porte sa puissance de calcul à 478,2 Téraflops.

IBM reste le premier fournisseur avec 46,4% du parc installé et 45% des Pétaflops disponibles. HP arrive deuxième (32,3% du parc, 23,9% de la puissance). Avec 14 machines présentes, Cray n'est plus que l'ombre de lui-même. Avec SGI (22 systèmes) et Dell (24), cinq sociétés fournissent 458 des 500 systèmes répertoriés.

Notons que Windows, absent encore l'an dernier de la liste, est parvenu à glisser six systèmes. Mais ils ne délivrent que 0,7% de la puissance totale. Linux, présent sur 426 systèmes, est, lui, à l'origine de plus de 70% des Pétaflops disponibles.

Le site du Top 500 des super ordinateurs.

* Téraflops : mille milliards de Flops (Opération à virgule flottante par seconde)
* Pétaflops : un million de milliards de Flops

Source : http://www.lemondeinformatique.fr/actualites/lire-top-500-sept-millions-de-milliards-d-operations-a-la-seconde-24581.html

La BNF numérise massivement ses ouvrages

La BNF entame un tournant dans la numérisation des nombreux documents en sa possession. Sur fond de lutte larvée avec Google

Même une vénérable institution comme la bibliothèque nationale de France (BNF) ne peut faire l’économie des nouvelles technologies. Conformément au projet de bibliothèque numérique européenne, la BNF est parvenue à collecter 10 milliards de documents sur la Toile auxquels s’ajoutent les 300.000 documents en sa possession et dont elle a entrepris la numérisation, comme le souligne l’AFP.

La numérisation, loin d’être effectuée à l’aveugle, prend en compte la notion primordiale de pérennité. Car l’un des défis de l’ "entrepôt numérique" consiste à garantir une consultation des documents indépendante des "changements de format", comme le souligne Bruno Racine, président de la BNF.

Pour réaliser cette tâche, la BNF a investi des moyens conséquents. Une somme de 26 milliards d’euros devrait être injectée sur 3 ans.

La BNF s’est dotée d’une solution dénommée Spar (système de préservation et d’archivage réparti). La solution peut, selon la BNF, assurer une surveillance continue des fichiers numérisés et veiller à leur intégrité, tout en assurant leur copie et leur stockage. Rappelons également qu’en janvier, Orange avait signé un partenariat avec la BNF en s’engageant à lui apporter un soutien technique dans son entreprise.

Ce système de numérisation devrait, dans un avenir proche, non seulement permettre un accès à la Culture élargi au niveau national mais aussi au niveau local. La bibliothèque nationale envisage d’étendre Spar aux bibliothèques municipales, spécialisée et universitaires.

Pour Bruno Racine, le projet de la BNF se présente comme plus respectueux des droits d’auteurs. Les œuvres consultées sous droits d’auteurs seront subordonnées à un accès payant. Un accord juridique a été conclu pour garantir un modèle économique rémunérateur pour les ayants droit. Tout le contraire de Google.

Difficile avec une telle pique d’oublier le véritable combat que livre l’Europe à Mountain View. Le moteur de recherche a fait depuis 2002 état de son projet d’ouvrir la Culture au plus grand nombre. Pour beaucoup, y compris aujourd’hui, le projet de numérisation de Google fait toujours planer une menace sur la Culture même si la numérisation des oeuvres apparaît aujourd'hui comme indispensable.

A noter que la BNF a également mis à disposition sur son site en version bêta, la nouvelle mouture de Gallica, son portail qui propose un accès à plus de 90.000 ouvrages numérisés. Gallica 2 devrait être fin prêt pour 2008.

Source : http://www.silicon.fr/fr/news/2007/11/14/la_bnf_num_rise_massivement_ses_ouvrages

Microsoft Windows Server 2008 : tarification, avec ou sans virtualisation

Le successeur de Windows Server sera proposé en cinq versions, Viridian 'Hype- V' sera en option

Microsoft a dévoilé à l'occasion de l'IT Forum (ex TechEd), qui se tient actuellement à Barcelone, les futures déclinaisons et tarifications de ses plates-formes serveurs. Sans grande surprise, les tarifs bougent peu, au maximum de 1 % selon l'éditeur…

Microsoft Windows Server 2008 sera proposé en cinq versions, mais sans la virtualisation. La technologie Viridian, qui adopte le nom officiel de Hyper-V, ne sera en effet disponible qu'en option. La plate-forme sera la première chez Microsoft à être livrée en standard en 64 bits.

Les versions et tarifs annoncés pour les Etats-Unis sont :
  • Standard 5 licences clients - 971 dollars
  • Enterprise 25 licences – 3.971 dollars
  • Datacenter au CPU – 2.971 dollars
  • Itanium au CPU – 2.999 dollars
  • Web - 469 dollars
L'option virtualisation Hyper-V sera proposée sous le nom d'Hyper Server-V au prix agressif de 28 dollars, quelle que soit la version de Windows Server. Et Microsoft a même prévu un hyperviseur pour les machines sans Windows, également proposé au prix de 28 dollars, quelque soit le nombre de processeurs.

La virtualisation est devenue un axe stratégique pour Microsoft, comme pour l'industrie. L'éditeur semble d'ailleurs vouloir recentrer en partie sa communication autour de cette technologie. Hyper Server-V pourra accueillir des machines virtuelles Windows, Linux et Solaris.

A la différence de VMware sur ESX, l'éditeur a choisi de créer un 'micro noyau' pour gérer les ressources processeurs et mémoire, et confie aux machines virtuelles la gestion des pilotes. Et de mettre l'accent sur son futur environnement d'administration System Center, dont Microsoft affirme qu'il sera beaucoup plus simple que son concurrent.

Quant à la disponibilité de ces produits, elle reste fixée pour la fin février 2008. Sauf pour Hyper Server-V qui sera disponible plus tard, en théorie avant la fin du premier semestre 2008. Microsoft a affirmé qu'il aillait mettre ce délai à profit pour optimiser Hyper-V sur les plates-formes AMD et Intel… Pas de délai en revanche sur la disponibilité de System Center.

Source : http://www.silicon.fr/fr/news/2007/11/14/microsoft_windows_server_2008___tarification__avec_ou_sans_virtualisation

mercredi 14 novembre 2007

• Documentation - l' Éducation nationale en chiffres 2006/2007

Le ministère de l'Éducation nationale et de l'Enseignement supérieur se sont joints pour publier "L'Éducation nationale en chiffres". Ce document donne les principaux chiffres de l'éducation pour plusieurs domaines : le coût de l'éducation, le premier et le second degré, l'enseignement supérieur et la situation professionnelle.

Concernant l'enseignement supérieur, sont mis en avant l'évolution du nombre d'étudiants, les dépenses moyennes par étudiant et les principaux diplômes délivrés.
A lire : L'éducation nationale en chiffres

Visibilité sur le web : les institutions de recherche face aux universités

Le classement mondial « Webometrics » dédié à la visibilité sur le web, montre que les organismes français de recherche sont beaucoup plus visibles sur le net que les universités.

Le classement a été réalisé par Webometrics qui dépend du « Laboratorio de Internet » (Espagne) qui a pour but d’étudier des données concernant la communication universitaire sur Internet. Il dresse un palmarès annuel des 4000 établissements d’enseignement supérieur et des 1000 instituts de recherche qui affiche le plus de visibilité sur internet. Il se base sur une combinaison d’indicateurs de la popularité des sites à partir du référencement des principaux moteurs de recherche tels que yahoo et google par exemple. Il se base également sur le volume de travaux accessibles en ligne.

Cette année le classement webometric montre que les universités françaises ne sont présentes qu'à partir de la 209ème position, contre les organismes de recherche qui sont nommés deux fois dans les 15 premières places. Il s’agit du CNRS qui prend la 6ème place mondiale et de l'Inria la 12ème. L'université Claude-Bernard (Lyon-I), première université citée se retrouve 209ème, soit la 68ème place européenne.

Constats pour la France

A la lecture de ce classement, il apparaît que les organismes de recherche français soient bien plus valorisés que les universités.

Les premiers à apparaître dans le classement sont CNRS et l'Inria, suivies par l'Inra (24ème), l'Inserm (47ème), l'Insee (55ème), le CEA (56ème). Sur les 100 premières places, 14 sont occupées par des organismes français.

Les universités françaises restent cependant peu visibles. Les universités les plus présentes sur le web demeurent encore à l’heure actuelle majoritairement les universités américaines dont Stanford, Harvard ou le MIT. L’Europe apparait à la 21ème place avec l’université de Cambridge en Angleterre. Suivi par Oxford (Angleterre), l’institut de technologie de Zurich (Suisse), l’université d’Helsinki (Finlande) et l’université d’Edimbourg (Ecosse).

Pour la France, l'université Claude-Bernard (Lyon-I), arrive à la 209ème place mondiale et la, 68ème place européenne. L’ENS de Paris est classée à la 272ème mondiale suivie par l'École des Mines de Paris (273ème), l'université de Nice-Sophia Antipolis (294ème), l'université Joseph-Fourier (Grenoble-I) (367ème), Rennes-I (383ème) et l'École polytechnique (384ème).

Source : http://www.amue.fr/presentation/articles/article/visibilite-sur-le-web-les-institutions-de-recherche-face-aux-universites/

Administration : Microsoft étoffe sa suite Desktop Optimization Pack

A entendre Microsoft, sa suite d'outils d'administration des postes clients, le Microsoft Desktop Optimization Pack (MDOP) vole de succès en succès. Cet ensemble d'outils, qui avait déjà établi un record en juin dernier avec 1,5 million d'exemplaires vendus en six mois, viendrait de passer la barre des trois millions.

Une performance d'autant plus remarquable que seuls les adhérents à la controversée Software assurance peuvent y avoir droit. Il est vrai que MDOP est la résultante d'une razzia de Microsoft parmi les éditeurs des meilleurs outils d'administration pour les parcs micros sous Windows.

Microsoft a présenté les bêtas suivantes :
  • Microsoft Application Virtualization 4.5. Promis pour l'été prochain, cette première version maison du logiciel SoftGrid Application Virtualization de Softricity
  • Diagnostics and Recovery Toolset (DaRT) 6.0. Au printemps prochain, cet outil supportera les versions 32 et 64 bits de Vista et de Server 2008.

Par ailleurs, Asset Inventory Service (AIS) 1.0 est proposé aux clients de MDOP pour les aider à réaliser l'inventaire des logiciels installés.

Rappelons que Microsoft avait pris pour (mauvaise) habitude de ne considérer comme valables que les inventaires logiciels réalisés avec ses propres outils.

Source : http://www.lemondeinformatique.fr/actualites/lire-administration-microsoft-etoffe-sa-suite-desktop-optimization-pack-24564.html

mardi 13 novembre 2007

Dell | ASAP Software, message important à l'attention de nos clients

Le 12 Novembre 2007

Nous sommes heureux de vous annoncer que Dell, l’un des leaders mondiaux de la distribution de produits informatiques et services d’infrastructure et la 34ème entreprise du classement Fortune 500, a officialisé le 12 novembre l’acquisition d’ASAP Software.

Que cela signifie-t-il pour vous ? Cette acquisition combine l’expertise de deux leaders de l’industrie afin d’apporter une valeur ajoutée exceptionnelle sur le marché. Vous disposez dès lors d’un point d’expertise unique en matière de licences logicielles, de mise en conformité, de renouvellement et de gestion d’actifs de l’un des principaux fournisseurs de solutions logicielles dans le monde.

L’offre matérielle de Dell associée au savoir-faire d’ASAP dans le domaine de la gestion des licences logicielles, vous permettent de bénéficier de solutions performantes pour simplifier votre informatique.

L’association de ces deux entreprises s’appuiera sur la capacité historique d’ASAP à vous aider à :
  • Economiser du temps sur les processus d’achat et de gestion de votre infrastructure informatique
  • Optimiser vos investissements informatiques
  • Bénéficier des meilleures technologies disponibles sur le marché
  • Assurer la conformité de votre parc sans dépenses superflues

Quels bénéfices allez-vous en tirer ? Vous aurez la capacité de vous concentrer davantage sur les innovations à apporter à votre infrastructure plutôt qu’à la gestion et à la maintenance de l’architecture en place.


Dell et ASAP partagent la même passion : assurer la meilleure satisfaction possible à leurs clients. Nous allons continuer à vous offrir la qualité de service que vous êtes en droit d'attendre.
Si vous avez des questions, je vous invite à contacter vos Ingénieurs Commerciaux.

Merci de votre confiance. Nous sommes impatients de poursuivre et de développer notre collaboration avec vous dans un futur proche.

Bien cordialement,

Hervé Jezic
Director and General Manager, Dell Software, EMEA

Vista n'est pas la réussite commerciale attendue

« Peut mieux faire. » Telle est la mention qu'accorde à Vista Gartner un an et un jour après son lancement public. Commercialement parlant ce n'est pas le succès espéré, en entreprise du moins.

Si les bons résultats commerciaux du dernier trimestre de Microsoft sont largement dus aux ventes de Vista (aux distributeurs et aux fabricants de PC, plutôt qu'aux clients finaux), le dernier système d'exploitation tarde à s'intégrer en entreprise. Un an après son lancement, « les sociétés semblent bien en retard sur le planning d'adoption qu'elles annonçaient l'an dernier », estime Michael Silver, analyste chez Gartner. Selon ce cabinet d'études, chaque entreprise aurait de 9 à 12 mois de retard en moyenne sur ce planning. « Ils ont surestimé les capacités des revendeurs à avoir des versions compatibles avec Vista de leurs applications, sous-estimé la difficulté de la migration vers Vista et surestimé l'apport de Vista à leurs business. Au total c'est un déploiement beaucoup plus lent qui s'opère. Nous entendons désormais beaucoup de gens parler de la fin 2008 ou du début 2009 pour le lancer. »

Pour Michael Cherry, du cabinet Decisions on Microsoft, ce non-empressement s'explique aussi par le changement de matériel indispensable pour passer à Vista : « Vista est un produit dédié aux nouveaux matériels. Je pense qu'il faut faire attention à ses besoins matériels. » Il recommande d'ailleurs de ne pas changer de système d'exploitation sans changer de poste de travail. Pour autant, il est trop tôt pour qualifier Vista d'échec commercial. Se référant au passage de Windows Millenium vers XM, Michael Silver note que « quand vous venez d'un OS qui n'est pas parfait, vous ne faites pas attention aux petites imperfections. Mais quand vous quittez quelque chose d'aussi stable qu'XP [sic] pour une plate-forme instable, le moindre problème est amplifié. » Ce qui explique pourquoi certaines entreprises attendent la sortie du premier Service Pack pour Vista avant d'entamer leurs migration.

Source : http://www.lemondeinformatique.fr/actualites/lire-vista-n-est-pas-la-reussite-commerciale-attendue-24551.html

lundi 12 novembre 2007

18 finalistes sélectionnés pour les Trophées du Libre

Le jury des prochains Trophées du Libre ont rendu publique la liste des 18 finalistes. Le résultat final sera dévoilé à Soissons le 29 novembre, lors du 4ème concours international du logiciel libre. Trois projets ont été retenus dans chacune des six catégories identifiées par le jury, présidé cette année par Georg Greve, fondateur de la branche européenne de la FSF (Free Software Foundation).

Le nombre de projets soumis (149) équivaut à celui de 2005, après une phase un peu en retrait l'année dernière. De même, l'internationalisation retrouve un niveau important, avec des projets portés par des équipes ou des individus de 29 nationalités différentes (contre 15 en 2006 et 25 en 2005). A noter aussi que la catégorie 'PHP' a laissé la place à 'logiciels scientifiques'.

La liste des finalistes par catégorie :

  • Sécurité : rsyncrypto, Yersinia, Unicornscan
  • Logiciels d'entreprise : LimeSurvey, DeStar, Scenari
  • Administration & collectivités : DRBL, PMB, VHFFS
  • Logiciels éducatifs : Claroline, Chronojump, Scenari
  • Multimédia / Jeux : sK1, mediabox404, Herrie
  • Logiciels scientifiques : Getfem++, SAGE, Giac/Xcas

Source : http://www.lemondeinformatique.fr/actualites/lire-18-finalistes-selectionnes-pour-les-trophees-du-libre-24532.html

vendredi 9 novembre 2007

Microsoft ouvre la bêta de son nouvel agenda Live en ligne

Windows Live Calendar à la sauce Ajax et iCal, et au parfum d'Office, remplacera le vieillissant MSN Calendar

Microsoft continue de construire sa stratégie de services en ligne pour concurrencer l'envahissant Google. Parallèlement aux applications Windows Live qui ont quitté le format bêta, Microsoft a dévoilé un nouvel agenda en ligne, sans lien avec le calendrier de Hotmail.

La bêta de Windows Live Calendar se présente donc très classiquement, mais avec la touche bureautique des produits Office. Le langage Ajax (Asynchronous JavaScript and XML) autorise à ce titre de nombreuses fonctionnalités qui restent chères aux utilisateurs de Windows et Office, comme le 'drag and drop', le simple click pour lancer une action ou le défilement avec la roulette de la souris. Microsoft assure la continuité…

Le service autorise le multi-agenda, les agendas partagés, les messages texte et email, et la syndication (inscription à un agenda partagé) via Real Simple Syndication. Pour partager les agendas, Live Calendar supporte le format iCal, qui permet d'importer/exporter manuellement les agendas provenant ou vers d'autres environnements – comme Mac OS X ou Google – et qui supportent le même format.

Nous avons rapidement testé ce nouveau service, déjà disponible en français. L'interface et les manipulations de base (création d'un rendez-vous, modification, déplacement, etc.) ne dépayseront pas les utilisateurs d'Outlook. Ni ceux de Google Calendar non plus d'ailleurs ! Il n'y a guère que les couleurs qui changent…

A ce propos, l'importation manuelle au format iCal d'un agenda Google Calendar s'est déroulée sans encombre, mais il a fallu du temps !

Pour tester le service, http://calendar.live.com. Attention, il faut disposer d'un identifiant Windows Live ID, ou MSN, mais c'est gratuit !

Source : http://www.silicon.fr/fr/news/2007/11/08/microsoft_ouvre_la_b_ta_de_son_nouvel_agenda_live_en_ligne

Microsoft Search Server 2008 gratuit: qui est visé ?

Le moteur de recherche Search Server Express est proposé gratuitement par l’éditeur de Windows, sans limitation du nombre de documents, avec possibilité d’ajouter des connecteurs ou d’en développer. Une version payante est aussi annoncée.

Un mois après le lancement de la version 5.0 de Google Search Appliance (matériel Google OneBox et logiciels), Microsoft annonce la mise à disposition de la version préliminaire de Microsoft (Release Candidate) de Search Server 2008 Express (http://www.microsoft.com/enterprisesearch). Peut-on réellement croire à un effet du hasard ?
Une version gratuite qui promet

Microsoft a profité du salon Enterprise Search Summit West de San Jose se tenant ces jours-ci pour communiquer sur cette offre à venir dans quelques semaines.
En fait, l’éditeur de Redmond a packagé des fonctions de recherche de son logiciel Office Sharepoint Server 2007 pour proposer un produit autonome en deux versions : une gratuite et une payante. "La différence essentielle tiendra dans l’équilibrage de charge et de haute disponibilité inclus dans la version payante," précise-t-on chez Microsoft France. Mais il faut également ajouter une personnalisation avancée, et surtout une partie d’administration évoluée avec tableau de bord et définition de règles avancée.

Le produit est présenté comme facile à configurer et à administrer. Et surtout, Search Server Express n’est pas limité dans le volume de documents traités. Alors que, par exemple, la solution Google Search Appliance est proposée à partir de 30.000 euros pour 500.000 documents.

Côté fonctions, gratuité ne rime pas avec pauvreté. En effet la version propose entre autres: des résumés de contenus pour les résultats des recherches, des surlignements de textes sur les mots-clés, des corrections avec proposition (de type : « Vouliez-vous dire : … »), du filtrage multicritère configurable, du filtrage linguistique, des tris de réponses par date ou par pertinence, l’affichage de résultats regroupés par onglet, etc. Et l’interface est disponible en 25 langues ! Et une indexation en continu enrichit les recherches des dernières informations analysées au fil de l’eau.

La connectivité vers les applications et SGBD incluse

Search Server 2008 Express peut indexer le contenu de serveurs de fichiers, de sites Web, de services SharePoint, de serveurs Exchange publics, et de référentiels Lotus Notes. Par ailleurs, d’autres connecteurs sont développés et continueront à apparaître via le réseau de partenaires de Microsoft, qui a fait de ce levier un écosystème dynamique et efficace depuis des années.
Des librairies de fonctions (API) de connexion d’indexation permettent également de disposer de connecteurs via divers contenus, mais également de développer ses propres solutions.
L’intégration du standard OpenSearch permet à la solution de fédérer les résultats des recherches avec les index d’autres référentiels, applications ou services respectant ce standard. Bien entendu, les recherches Internet peuvent compléter naturellement les résultats grâce à ce standard. Enfin, la compatibilité est assurée pour les clients souhaitant passer à la version payante ou à Office Sharepoint Server 2008.

Une stratégie confirmée et très agressive

Microsoft complète là son dispositif Office, axé autour d’un client riche communicant avec des solutions de back-end communicantes et interconnectées. "Search Server 2008 est second pilier après Exchange, et au niveau de SharePoint pour connecter le client aux portails d’entreprise, à des solutions documentaires, à la BI, aux fonctions de collaboration en réseau, etc." souligne-t-on même chez Microsoft France. "Cette solution incarne une brique capitale permettant de structurer un système d’information accessible aisément et efficacement depuis le poste de travail."

La gratuité de la version Express, très complète et répondant à une bonne partie des attentes des entreprises, pourrait nuire au développement non seulement de l’offre Google, mais aussi à une vingtaine de produits d’un marché que l’institut Gartner évaluait à environ 370 millions de dollars en 2006, et estimait à 482 millions pour 2009. On se souvient de la sortie des moteurs Olap de Microsoft dont le prix très agressif avait amené les éditeurs concurrents à diviser par dix leurs offres concurrentes ! Un monde sans pitié, ou la fin des abus ?

Source : http://www.silicon.fr/fr/news/2007/11/07/microsoft_search_server_2008___pour_qui_sonne_le_glas__

mercredi 7 novembre 2007

Open Source : Red Hat et Sun main dans la main

Red Hat et Sun annoncent la signature d'un accord de contributeur et de licence TCK en vue de fournir un kit de développement d’applications Java Open Source, parfaitement compatible avec Red Hat Enterprise Linux

PublicitéRed Hat va fortement s'impliquer dans la communauté Java. Ce rapprochement couvre la participation de tous les ingénieurs de Red Hat a tous les projets Open Source commandités par Sun.

Red Hat a par ailleurs également signé l’accord de licence TCK de la communauté OpenJDK de Sun. La société pourra ainsi accéder à la suite de tests TCK permettant de déterminer la conformité aux normes Java SE 6 de toute implémentation de la plate-forme Java Platform Standard Edition (Java SE) dérivée du projet OpenJDK.

Ces accords vont enfin permettre à Red Hat de développer un JDK (Java Development Kit) Open Source, totalement compatible avec Red Hat Enterprise Linux et son environnement d’exécution Java JRE (Java Runtime Environment).

Désormais contributeur actif, Red Hat aura accès au code source d’OpenJDK, ainsi qu’au TCK pour Java SE 6, afin de développer un JRE pour Red Hat Enterprise Linux capable d’optimiser de manière significative les applications logicielles Java. Les clients de Red Hat bénéficieront ainsi d’un environnement ultra optimisé et accéléré pour exécuter JBoss Enterprise Middleware sous Linux, explique l'éditeur.

Sacha Labourey, directeur technique de JBoss, une division de Red Hat a indiqué à cette occasion: "Par ces accords stratégiques, Red Hat s’engage à contribuer à l’optimisation de la plate-forme Java et à fournir des logiciels Java Open Source compatibles."

L’un des principaux avantages de cet accord est le meilleur alignement sur le projet IcedTea, lequel réunit les technologies de Fedora et de JBoss.org au sein du même environnement Linux. Aux quelques rares développements encore propriétaires du projet OpenJDK, IcedTea propose des alternatives sous forme de logiciels libres.

Notons que ce mois-ci, la division Red Hat Middleware LLC a été réélue par les membres du programme de JCPSM (Java Community Process) au conseil de direction SE/EE (Standard/Enterprise Edition). Red Hat conservera ainsi trois ans durant son droit de vote sur l’orientation donnée à l’évolution des technologies Java. L’entreprise dirige actuellement le Web Beans Expert Group (JSR-299) et a déjà grandement contribué à l’élaboration de spécifications, notamment celles d’Enterprise JavaBeans 3.0 (JSR-220).

Pour Rich Green, vp des logiciels de Sun Microsystems: "Que Red Hat s’implique autant dans notre communauté est vécu comme un témoignage de confiance de ce leader des logiciels Open Source. Cette collaboration entre les communautés GNU/Linux et Java vient par ailleurs concrétiser tous les espoirs que nous avions nourris lorsque nous avons ouvert nos logiciels Java à l’Open Source. Il est extrêmement gratifiant de concrétiser ainsi notre promesse de technologies Java Open Source aux côtés d’un leader aussi prestigieux que Red Hat."

Source : http://www.silicon.fr/fr/news/2007/11/06/open_source___red_hat_et_sun_main_dans_la_main

Une administration américaine sur deux utilise des logiciels libres

Plus d'une administration américaine sur deux a déployé des logiciels libres et 71% des responsables interrogés sont convaincus de l'intérêt de le faire. Tels sont les principaux résultats d'une enquête conduite à la demande de la Federal Open Source Alliance dont les principaux membres sont Intel, HP et Red Hat.

218 décideurs ont répondu au questionnaire. Les motivations et résultats cités sont dans la droite ligne des autres enquêtes favorables aux logiciels libres. A noter, toutefois, deux séries de réponses intéressantes. La première porte sur la sécurité. Elle est à la fois la principale motivation (34%) de ceux qui ont choisi des solutions en Open Source et aussi la principale motivation (40%) de ceux qui n'ont pas déployé du code libre...

Enfin, il convient de souligner le taux de satisfaction de 97%, exprimé par ceux qui ont déployé du code ouvert. Un taux nettement au-dessus des résultats habituels.

Source : http://www.lemondeinformatique.fr/actualites/lire-une-administration-americaine-sur-deux-utilise-des-logiciels-libres-24494.html

L'avenir de JavaScript écartelé entre Mozilla et Microsoft

Alors que Mozilla prône une évolution en douceur de JavaScript, Microsoft milite pour une rupture plus nette.

L'évolution d'ECMAScript, le standard qui fonde les langages de script JavaScript (Mozilla, Netscape) et Jscript (Microsoft) en maintenant une relative compatibilité entre eux, est l'occasion d'un bel affrontement entre les deux camps.

Pour les tenants de JavaScript et de son évolution, avec à leur tête Brendan Eich, CTO (Chief technical officer) de Mozilla et créateur de ce langage, Microsoft réclame un nouveau langage pour imposer ses propres outils et parvenir, enfin, à contrôler un élément clé du web qui lui a toujours échappé. Ces partisans ont beau jeu de pointer du doigt l'état d'obsolescence dans laquelle Microsoft maintient son JScript.
Chez Microsoft, on dénonce un procès d'intention et on justifie autrement la réticence à faire évoluer ECMAScript de la version 3 à 4. Pour que cette dernière version puisse intégrer des améliorations inspirées par Java et Python, le géant de Redmond affirme qu'elle va atteindre un dangereux niveau de complexité. Et ce, sans dépasser les limites intrinsèques de JavaScript qui génèrent de gros handicaps, en particulier en matière de sécurité.

Une certitude, l'agressivité des deux camps montre bien que les divergences de point de vue et les objectifs stratégiques vont effectivement bien au-delà du débat technique.

Source : http://www.lemondeinformatique.fr/actualites/lire-l-avenir-de-javascript-ecartele-entre-mozilla-et-microsoft-24478.html

lundi 5 novembre 2007

Wikipedia déclaré non responsable de son contenu

Par une ordonnance de référé, le tribunal de Paris a débouté le référé pour 'diffamation' et 'atteinte à la vie privée' de trois particuliers contre la fondation Wikipedia

Une encyclopédie communautaire en ligne est-elle responsable de ce que les internautes publient ? Le tribunal de Paris a rendu un jugement qui tendrait à affirmer que non… si d'autres tribunaux n'avaient rendu précédemment des décisions inverses !

Wikipedia, l'encyclopédie 'universelle' en ligne aux 8 millions d'articles, était poursuivie à la suite d'un article paru fin septembre et dévoilant l'homosexualité de trois individus qui ont déposé une plainte en référé pour 'diffamation' et 'atteinte à la vie privée'.

Les trois plaignants, en plus de dommages et intérêts, demandaient en particulier à ce que soit révélée l'identité de l'auteur de l'article, qui sous-entendait que le militantisme d'un des plaignants avait facilité une adoption d'enfants...

L'arrêt du tribunal de Paris déboute les plaignants, moins cependant sur le fond que sur la forme. En effet, "seul le fournisseur d'accès peut être en mesure de communiquer les données permettant d'identifier précisément son utilisateur", ce qui écarte la responsabilité l'hébergeur, ici Wikipedia.

Les plaignants ont certes notifié leur demande par mail auprès de Wikipedia, mais le tribunal a jugé d'une part que la responsabilité de la fondation Wikipedia "n'apparaissait pas avec évidence", et que la notification des contenus délictueux "devait suivre une forme précise."

A ce propos, cette affaire vient rappeler que le courriel n'a pas la valeur d'un courrier, surtout recommandé, ou d'une photocopie, et que leur usage n'est pas suffisant dans le cadre d'une procédure.

La tentative d'engagement de la responsabilité éditoriale de l'encyclopédie Wikipedia, une première en France, a en tout cas échoué, ce qui devrait rassurer les hébergeurs, même si la décision du tribunal de Paris n'a pas valeur de jurisprudence, et qu'une prochaine affaire pourrait bien faire l'objet d'un rendu inverse…

Source : http://www.silicon.fr/fr/news/2007/11/04/wikipedia_d_clar__non_responsable_de_son_contenu

Web 3.0 : et l'Internet deviendra intelligent...?

La recherche pour la prochaine génération d'Internet est en marche. Intelligent ou malin ?

Ceux qui ont raté le coche du Web 2.0 (ou qui comme beaucoup n'ont rien compris) peuvent se consoler : le Web 3.0 se profile. Sans blagues... Selon Timesonline, la Silicon Valley en Californie avance sur ce sujet.

Les chercheurs prédisent que dans 10 ans, Internet se connectera à tous les aspects de la vie numérique. Ainsi, e-mails, dossiers et sites en ligne seront si intimement liés qu'il sera possible de proposer une publicité contextuelle selon la nature du document consulté.

Google fait oeuvre de « précurseur » dans ce domaine. Les abonnés à Gmail peuvent déjà recevoir des textes publicitaires contextuels relatifs à leur correspondance. Un plaisir incomparable....

Demain Internet ira plus loin. Les utilisateurs de messagerie auront le plaisir de recevoir des photos, des vidéo ou encore des livres, tous liés au contenu de leurs messages. Génial!

En clair, Internet va devenir intelligent. En termes de pub, au moins. Alors que le Web 2.0 se caractérise surtout par sa volonté de lier les utilisateurs et de créer une intelligence collective, le Web 3.0 devrait avoir des objectifs tout autres. Et adopter un nom, un concept : 'le Web sémantique'.

Selon Nova Spivack, un évangéliste du Web 3.0, Internet a connu deux phases: "La première phase a reposé sur la construction de la plate-forme Internet et sur la mise à disposition du plus grand nombre. Le Web 2.0, dont la fin approche, a consisté à améliorer l'interface utilisateur. La troisième phase consistera à rendre le Web plus malin."

Internet nouvelle génération pourrait être en mesure de répondre à des questions très précises. Une question telle que 'Quel président américain a succombé à une maladie', trouvera une réponse adéquate, sachant que la Toile fera la différence entre le nom d'un président et une maladie. Internet pourra 'expliquer' comme un humain.

Une entreprise baptisée Powerset développe cette technologie de 'langage naturel', capable de répondre efficacement à ce type de requête. Le moteur de recherche, s'il parvenait à s'imposer pourrait bien, à terme, concurrencer Google. Mais le géant, toujours prompt à faire évoluer ses services, ne sera pas en reste.

Facebook, Youtube et autres Dailymotion peuvent encore patienter. La révolution annoncée n'est pas prévue avant 2020.

Source : http://www.silicon.fr/fr/news/2007/10/29/web_3_0___et_l_internet_deviendra_intelligent____

Les installations de Linux s'essouffleraient

A l'aune des ventes de serveurs neufs, Linux progresserait désormais moins vite que Windows. Il est vrai que cet OS a déjà fait le plein des migrations en provenance des autres Unix et de Netware.

Le petit monde des études informatiques s'agite autour de la stagnation des ventes de Linux. Certains y voient une victoire de Windows Server, d'autres invitent à regarder la réalité et pas seulement les chiffres de ventes de machines neuves.
Linux, qui progressait de 45% par an en 2003 dans le monde, n'a progressé que de moins de 10% en 2006. Quel que soit l'indicateur pris en compte, il apparaît que Linux progresse désormais moins vite que Windows.
Un consensus semble s'établir autour de l'explication de ce phénomène. Pour la plupart des analystes, Linux ne tirait pas sa croissance de transfuges de Windows Server qui l'abandonnaient pour lui, mais de migration en provenance soit du monde des autres Unix, soit de Netware.

En 2000, un serveur sur deux tournait avec Windows. Venaient ensuite les Unix et Netware avec chacun 17% du marché. Linux n'arrivait qu'en dernière position avec 10%. Aujourd'hui, Windows est passé de 50% à 70%, Linux s'est hissé à hauteur de 20% du marché tandis que les Unix n'ont plus que moins de 10% et que Netware a disparu des ventes.

Maintenant que le gros des applications qui devaient migrer d'Unix et de Netware l'on fait, Linux aurait fait le plein. C'est la raison avancée pour expliquer que, désormais, cet OS voit sa progression s'essouffler tandis que Windows continue sa progression. Elle serait tirée par la montée en charge des environnements déjà acquis, par le succès d'Exchange qui n'a pas d'alternative digne de ce nom sur Linux et par celui des autres produits compagnons de Microsoft. La palette de ces derniers ne cesse de s'étendre tandis que la logithèque de Linux tarde à s'étoffer.

Cette explication a le mérite de la simplicité. Les défenseurs de Linux ont aussi beau jeu de souligner que mesurer les installations d'un OS gratuit recèle des difficultés méthodologiques qu'il ne faut pas négliger. Sans parler du fait que Linux s'installe souvent sur des machines pour leur offrir une seconde vie et que l'OS est le candidat idéal pour la virtualisation.

Source : http://www.lemondeinformatique.fr/actualites/lire-les-installations-de-linux-s-essouffleraient-24430.html

Leopard populaire, même sur PC

Moins d'une semaine après sa commercialisation et en dépit de critiques présentant l'OS davantage comme une simple évolution qu'une véritable révolution, Leopard a déjà été vendu à plus de deux millions d'exemplaires. A titre de comparaison, ce chiffre est supérieur à celui réalisé par Tiger, la précédente version du système d'exploitation d'Apple, une semaine après son lancement. Les 2 millions de copies de Mac OS 10.5 incluent les ventes dans les Apple Store (magasins et en ligne), via les revendeurs partenaires d'Apple, les contrats de maintenance et les exemplaires préinstallés sur les machines vendues depuis le 26 octobre, date de lancement de l'OS.

Par ailleurs, Apple, déjà à la lutte avec les développeurs de programmes de déblocage de l'iPhone et de l'iPod Touch, va devoir faire face à un nouveau détournement de ses produits. Des internautes officiant sur le forum OSx86 viennent en effet de publier un pas-à-pas permettant d'installer Mac OS 10.5 sur un PC. Le procédé repose sur un patch à appliquer sur l'image de l'OS, qu'il faut ensuite graver sur un DVD qui permettra d'installer Leopard sur une partition dédiée. Si la théorie semble simple, la mise en oeuvre sera suffisamment ardue pour la réserver aux utilisateurs les plus avertis.

En savoir plus : Le forum OSx86 Scene

Source : http://micro.lemondeinformatique.fr/actualites/lire-leopard-populaire-meme-sur-pc-1770.html

Lancement du blog ’Université Numérique’

Valérie Pécresse, ministre de l’Enseignement supérieur et de la Recherche, a chargé Henri Isaac, maître de conférence à l’université Paris Dauphine, de rédiger un rapport sur le bilan des actions menées à ce jour en matière de technologies de l’information et de la communication pour l’éducation et sur les enjeux de la numérisation de l’enseignement supérieur. Ce rapport, qui sera remis fin novembre, doit en particulier préciser les obstacles qui freinent la production et la diffusion de contenus pédagogiques numériques et poser la question de la contribution du jeu vidéo à la transmission des connaissances.

Dans ce cadre, le ministère de l’Enseignement supérieur et de la Recherche a mis en ligne le blog Université Numérique (www.universitenumerique.fr), consacré au débat sur l’usage du numérique dans les universités. Ce site est un espace de débat autour de six questions : "quelle stratégie numérique pour l’enseignement supérieur ? Quels obstacles ? Quels contenus numériques ? Quelles implications pédagogiques ? Quel encadrement juridique ? Quelles technologies ?".

Source : http://www.nouvelleuniversite.gouv.fr/lancement-du-blog-universite-numerique.html

L'OpenDocument Foundation lâche ODF pour CDF

« Après des mois de tests, nous croyons que le format CDF du W3C répond, et même au delà, aux besoins du marché. Et cela, sans le recours à des extensions propriétaires [...] nécessaires pour la conversion de documents, d'applications et de processus vers ODF. »
Le couperet est tombé. Après cinq ans d'existence et de soutien du format de fichier ODF (OpenDocument), l'OpenDocument Foundation jette l'éponge et abandonne simplement le support du format qui lui avait prêté son nom, au profit de CDF (Compound Document Format) soutenu par le W3C. La faute à des raisons techniques, d'abord, mais également à des dissensions à l'Oasis, l'organisme qui le développe. Puis enfin, à Sun.
L'OpenDocument Foundation, dont la mission principale est de soutenir un format universel prônant l'interopérabilité, avait, il y a cinq ans, opté pour ODF, estimant qu'il correspondait davantage à leur définition du standard que les autres technologies du marché. L'OpenDocument Foundation est membre de l'OpenDocument Alliance qui, quant à elle, fédère les supporters d'ODF.
Si l'organisme raconte sur son site comment il a été amené à prendre sa décision, Sam Hiser, vice-président de la fondation explique sur son blog que CDF est un format universel plus viable qu'ODF. Concrètement, CDF répond davantage à la « charte d'interopérabilité » de la Foundation en garantissant une meilleure compatibilité avec Open XML, le format de Microsoft, mais également en termes de convergence entre desktops, serveurs et périphériques, de portabilité et de d'indépendance des fournisseurs.

« Sun ne s'intéresse qu'à son application »

Interrogé par nos confrères d'IDG News Service, Sam Hiser admet que des tensions à l'Oasis ont barré la route à l'adoption du standard dans les entreprises. Des dissensions qui ne sont pas en ligne avec la mission de l'organisme.
Une importante part des responsabilités incomberait, selon lui, à Sun qui a donné des signes clairs en février, qu'« il était plus intéressé à rendre sa propre version de StarOffice interopérable avec les formats de Microsoft Office ». Et d'aller plus loin, en suspectant le constructeur et l'accord de 2 Md$ qu'il a noué avec Microsoft, d'être pour quelque chose dans « l'apparent désintérêt du groupe à faire interopérer ODF avec Open XML ».
Au final, l'OpenDocument Foundation devrait changer de nom, sans que toutefois Sam Hiser ne communique sur le prochain nom de baptême.

Source : http://www.lemondeinformatique.fr/actualites/lire-l-opendocument-foundation-lache-odf-pour-cdf-24441.html

OpenVMS fête ses trente ans

La longévité du système d'exploitation de DEC démontre la modernité d'un environnement qui continue de supporter des applicatifs financiers hautement stratégiques.

Trente ans et toujours opérationnel. VMS, le système d'exploitation né avec les Vax de Digital Equipment (DEC) et devenu OpenVMS, continue de faire tourner en temps réel des applications transactionnelles stratégiques. Tellement stratégique que l'argument est poliment opposé lorsque l'on veut en savoir un peu plus sur ces utilisateurs qui continuent de faire tourner qui sa facturation pour opérateur mobile, qui son système boursier en ligne temps réel, qui son casino virtuel.
Chez HP, on glisse toutefois que l'on trouve OpenVMS derrière une facture mobile sur trois et derrière celle de deux SMS sur trois.

OpenVMS aura résisté à deux rachats successifs, celui de DEC par Compaq en 1998 et, à la suite de cette erreur stratégique, de Compaq par HP en 2002.
Parmi les bougies de son trentième gâteau d'anniversaire, figure celle de la version 8.3 H1. Certes mineure, cette mise à jour assure le support des serveurs Itanium au format lame et les fonctionnalités de gestion d'énergie associées. Elle montre bien qu'HP fait de son mieux pour inviter les 150 000 sites toujours sur processeurs Alpha à sauter le pas pour passer sur processeur Itanium.
Un mouvement d'autant plus naturel qu'OpenVMS a déjà sa place parmi les OS supportés par l'hyperviseur d'HP-UX, l'autre système d'exploitation des serveurs Itanium. Certains fans d'OpenVMS y voient d'ailleurs le risque d'une digestion lente. HP souligne pourtant que l'abandon de systèmes Alpha pour des Itanium permet d'économiser de l'ordre de 30% du TCO (Total cost of ownership).

Du côté des applications, HP souligne que la logithèque portée sur Itanium s'approche désormais des 1300 références et des 600 éditeurs. Chez Oracle, on continue de faire évoluer RDB, le SGBD acheté à Digital Equipement, et on assure qu'un portage de la version 11g viendra succéder à celui de 10g.
Par ailleurs, le SGBD MySQL et JBoss fonctionnent déjà sous OpenVMS. HP se préparerait à en assurer directement le support. Ce serait un signe fort pour signifier l'engagement d'HP de faire plus que maintenir en vie OpenVMS.

Source : http://www.lemondeinformatique.fr/actualites/lire-openvms-fete-ses-trente-ans-24440.html