« RevuePresse20080615 » : différence entre les versions
(brett michaels 1994 car crash 608) |
m (Révocation des modifications de 31.7.57.153 (retour à la dernière version de Fboulogne)) |
||
(2 versions intermédiaires par 2 utilisateurs non affichées) | |||
Ligne 9 : | Ligne 9 : | ||
---- | ---- | ||
===Le W3C ouvre un forum sur l'e-administration=== | |||
''LeMagIT.fr par Cyrille Chausson le 09 juin 2008 (08:43)'' http://www.lemagit.fr/article/internet-standards-interoperabilite-e-administration/523/1/le-w3c-ouvre-forum-sur-administration/ | |||
Alors que le ministère des Affaires étrangères inaugure un site Internet dédié à la présidence de la France sur l'Union Européenne - www.ue2008.fr en ligne depuis le 3 juin - , le W3C, consortium en charge des standards techniques du Web, lance son premier forum sur le e-gouvernement. | |||
L'organisation décrit le projet comme un espace dans lequel « les administrations, les citoyens, les chercheurs et d'autres intervenants échangent leurs vues sur la meilleure façon d’utiliser la technologie Web pour assurer une bonne gouvernance et renforcer la participation des citoyens ». | |||
La promotion des standards ouverts est un enjeu capital dans les projets de e-gouvernement, où l'interopérabilité et l'accessibilité doivent être de rigueur. Tim Berners-Lee, président du W3C souligne dans un communiqué, le rôle que pourrait jouer le Web sémantique dans l'administration en ligne. Le Web sémantique est un vaste concept qui relie, non plus les pages Web entre elles, mais les données qu'elles contiennent. | |||
---- | |||
===Riposte graduée : où seront les preuves ?=== | ===Riposte graduée : où seront les preuves ?=== |
Dernière version du 21 avril 2011 à 09:01
Revue de presse du 9 au 15 juin 2008[modifier]
Articles[modifier]
Le W3C ouvre un forum sur l'e-administration[modifier]
LeMagIT.fr par Cyrille Chausson le 09 juin 2008 (08:43) http://www.lemagit.fr/article/internet-standards-interoperabilite-e-administration/523/1/le-w3c-ouvre-forum-sur-administration/
Alors que le ministère des Affaires étrangères inaugure un site Internet dédié à la présidence de la France sur l'Union Européenne - www.ue2008.fr en ligne depuis le 3 juin - , le W3C, consortium en charge des standards techniques du Web, lance son premier forum sur le e-gouvernement. L'organisation décrit le projet comme un espace dans lequel « les administrations, les citoyens, les chercheurs et d'autres intervenants échangent leurs vues sur la meilleure façon d’utiliser la technologie Web pour assurer une bonne gouvernance et renforcer la participation des citoyens ».
La promotion des standards ouverts est un enjeu capital dans les projets de e-gouvernement, où l'interopérabilité et l'accessibilité doivent être de rigueur. Tim Berners-Lee, président du W3C souligne dans un communiqué, le rôle que pourrait jouer le Web sémantique dans l'administration en ligne. Le Web sémantique est un vaste concept qui relie, non plus les pages Web entre elles, mais les données qu'elles contiennent.
Riposte graduée : où seront les preuves ?[modifier]
Numerama par Guillaume Champeau le Lundi 09 Juin 2008 à 12h26 http://www.numerama.com/magazine/9872-Riposte-gradue-o-seront-les-preuves.html
__Nous avons déjà épinglé vendredi la loi "Création et Internet" en listant ce qui sont selon nous 10 bonnes raisons de rejeter la loi Hadopi. Nous pouvons en ajouter aujourd'hui une onzième : la grande faiblesse des preuves qui seront utilisées par la Haute Autorité pour prononcer les sanctions à l'encontre des P2Pistes. L'Université de Washington prouve en effet qu'il est simple de faire accuser un internaute innocent.__
Sur le principe, le projet de loi Hadopi prévoit que la Haute Autorité instruit ses dossiers de riposte graduée à partir des relevés d'infraction réalisés par les ayants droit. Ceux-là font appel à des sociétés spécialisées dans la chasse aux adresses IP sur les réseaux P2P, qui constatent la mise en partage illicite d'une oeuvre et notent la date et l'heure de l'infraction, en face de l'adresse IP du délinquant présumé. Or une étude (.pdf) réalisée par l'Université de Washington arrive à point nommé pour rappeler l'extrême fragilité des procédés employés pour relever l'identité des internautes coupables de téléchargement illégal sur Internet.
Les chercheurs Michael Piatek, Tadayoshi Kohno et Arvind Krishnamurthy ont démontré qu'il était très facile de tromper les systèmes de surveillance pour accuser volontairement ou non des internautes totalement innocents. Ils ont ainsi manipulé des trackers BitTorrent comme n'importe quel internaute peut le faire, pour pointer vers des adresses IP internes à l'Université, qui ne servent à aucun ordinateur. L'effet est probant. L'Université a reçu des plaintes de la part d'ayants droit pour des uploads qui auraient eu lieu à partir... d'imprimantes ou de routeurs WiFi. Malaise.
Le principe de la manipulation est assez simple. Pour télécharger un fichier sur BitTorrent, il faut d'abord télécharger un fichier .torrent qui pointe vers un ou plusieurs trackers. Ces trackers enregistrent la liste des adresses IP de tous les utilisateurs qui partagent le fichier, soit parce qu'ils l'ont déjà téléchargé en entier (les "seeds"), soit parce qu'ils ont commencé à le télécharger et qu'ils peuvent en redistribuer des morceaux (les "peers"). Dès qu'un utilisateur souhaite télécharger le fichier, le tracker lui communique sa liste d'adresses IP. Or certains trackers, pour des raisons parfaitement légitimes (l'utilisation d'un proxy par exemple), permettent aux clients BitTorrent de déclarer en tant que peer une autre adresse IP que celle utilisée pour contacter le tracker. Il est alors possible de glisser celle d'une imprimante en réseau... ou celle d'une victime parfaitement innocente.
Or à la grande stupeur des chercheurs, une majorité des chiens de garde de l'industrie culturelle se contentent d'initier une communication avec le tracker pour récupérer la liste des adresses IP, et prennent ce listing pour argent comptant. Sans vérifier que le contenu est effectivement mis à disposition par l'internaute qui se cache derrière l'IP.
La manipulation peut être effectuée de la même manière avec eMule et l'ensemble des réseaux P2P décentralisés. Il suffit à des internautes malicieux de déclarer de fausses IP d'internautes partageant soit-disant le fichier piraté. En faisant une recherche de sources de téléchargements, les ordinateurs des sociétés anti-piratage obtiennent une liste d'adresses IP qui peut contenir celles d'internaute parfaitement innocents.
Mais ces derniers ne pourront jamais le prouver.
Tout irait bien si, en France, les sociétés anti-piratage ne se contentaient pas d'obtenir les listes d'adresses IP à partir de trackers BitTorrent ou de recherches sur les réseaux P2P, mais initiaient systématiquement un téléchargement pour vérifier que le contenu recherché est bien partagé illégalement. Dans ce cas, et à condition de prouver que le fichier partagé est bien un fichier piraté, la preuve serait solide.
Sauf que la CNIL, pressée par le Conseil d'Etat de donner son autorisation à la chasse aux pirates, a validé un processus qui repose uniquement sur la recherche des adresses IP sources, et qui n'impose pas qu'un téléchargement soit initié sur chacune des adresses IP relevées.
La loi Création et Internet, si elle voyait le jour, institutionnaliserait un procédé de sanction automatisé qui non seulement comporte un haut risque d'injustice, mais qui en plus ne donne aucune chance aux internautes accusés à tort de prouver leur innocence. Il faudrait quand même que le gouvernement réponde à cette simple question : comment un internaute peut-il prouver qu'un jour donné à une heure donnée, il n'a pas partagé l'oeuvre qu'on le suspecte d'avoir partagée.
Levée de boucliers contre le filtrage d’Internet[modifier]
LeMagIT.fr par Valery Marchive le 09 juin 2008 (12:54) http://www.lemagit.fr/article/internet-standards-interoperabilite-e-administration/523/1/le-w3c-ouvre-forum-sur-administration/
__Le gouvernement prépare actuellement une charte qu’il entend faire signer aux fournisseurs d'accès à Internet dès ce mardi 10 juin. Ce document fixe de nouvelles obligations aux FAI, à commencer par la mise en place de dispositifs de filtrage, provoquant une véritable levée de bouclier.__
Nos confrères de PCInpact ont dévoilé ce vendredi 6 juin l’existence d’une charte que le gouvernement souhaite faire signer aux fournisseurs d’accès à Internet français ce mardi 10 juin. Cette charte, intitulée « Confiance en ligne » et qui tient en quatre pages, prévoit plusieurs dispositions qui font déjà polémique. La mise en place d’une « démarche proactive de sécurisation des équipements par des mesures adaptées (ex : information, suspension, résiliation, blocage de certains ports…) auprès des clients mettant en jeu la sécurité du réseau » ou encore le blocage des liens et des publicités vers des contenus réservés aux adultes dans des espaces qui ne le sont pas, soulèvent la question du filtrage d’Internet et du rôle des intermédiaires techniques du réseau.
L’association Quadrature du Net s’inquiète tout simplement d’un projet de « surveillance et de filtrage généralisé du Net », faisant référence au Big Brother de Georges Orwell.
__Un mouvement de fond__
Pour Emmanuel Tricaud, directeur des affaires réglementaires et du développement de Colt Telecommunications France, ce projet de charte n’est pas une surprise : « il s’inscrit dans un mouvement de fond qui dure depuis des années ; les pouvoirs publics ont besoin de pouvoir exercer leurs compétences régaliennes, y compris dans des espaces dits immatériels. » Et s’il semble comprendre que les pouvoirs publics s’appuient pour cela sur les fournisseurs de « tuyaux », Emmanuel Tricaud ne s'en interroge pas moins : « Internet est né comme un espace de liberté ; certains l’utilisent mal. Mais veut-on faire des fournisseurs de tuyaux les exécutants d’une politique publique ou ses initiateurs ? Nous demandons que, si il filtrage il doit y avoir, une autorité nous indique ce que nous devons filtrer. Tel qu’il a circulé la semaine dernière, le projet invente de nouvelles obligations contraires aux principes mêmes sur lesquels les lois sont fondées. » Et de souligner, comme point de départ, l’obligation du fournisseur d’accès à Internet de neutralité vis-à-vis des contenus, relevant la nature « antidémocratique » d’un dispositif dans lequel les FAI devraient filtrer des contenus sans en avoir reçu l’ordre du pouvoir judiciaire.
__Des risques potentiels pour l’activité des entreprises__
Yann Genetay, président d’Ipnotic Telecom, ne se sent pas vraiment concerné : « pour les entreprises, les blocages semblent hors de propos », même si, dans le cas de restrictions sur des accès grand public, « cela peut compliquer la vie des travailleurs nomades. » Nicolas Aubé, président de l’opérateur Céleste, relève néanmoins que d’éventuels blocage sur le tunneling ou le chiffrement seraient très handicapants : « on a besoin d’une certaine liberté pour les entreprises. Il ne faut pas que l’on nous empêche de fournir ce type de service. »
Mais Nicolas Aubé ne cache pas son affinité avec le projet de charte. Selon lui, « les fournisseurs d’accès à Internet ne sont pas assez responsables. Ils laissent faire tout et n’importe quoi. » Pour lui, notamment, les autorités judiciaires « doivent pouvoir faire des écoutes sur Internet. » Mais Nicolas Aubé n’en relève pas moins les limites du projet actuel : « on a besoin de savoir clairement ce qui peut être imposé aux fournisseurs et aux clients. » Le filtrage de ports, « c’est difficile mais jouable. » Mais l’archivage des logs, « c’est quoi ? les logs de connexion ou les logs DNS ? Dans ce second cas, ce serait colossal comme masse de données. »
Quant au coût des mesures, le président de Céleste ne semble pas trop s’en inquiéter : « je comprends que cela soit un problème pour les fournisseurs grand public ; mais sur le marché entreprises, on peut le répercuter sur les clients. » Reste à savoir s’ils apprécieront.
Vodeo abandonne un peu les DRM et s'essaye au gratuit[modifier]
Le service de vidéo à la demande tourne le dos partiellement aux verrous numériques et offre des programmes à visionner gratuitement sur le site pendant une semaine. Philippe Crouzillacq, 01net., le 09/06/2008 à 14h00
http://www.01net.com/editorial/382253/vodeo-abandonne-un-peu-les-drm-et-s-essaye-au-gratuit/
Face à la multiplication des services de « catch-up TV », c'est-à-dire de rediffusion de programmes, Vodeo.tv, le petit poucet de la VOD réagit avec ses moyens. Après six mois de négociation avec une cinquantaine d'ayants droit, le service vient de retirer les DRM (Digital rights management) - qu'il qualifie de « cadenas numériques » - sur 200 documentaires et reportages. Son catalogue, aujourd'hui, compte 4 200 titres.
« Avec les DRM on en est arrivé à surprotéger des oeuvres, bien plus que pour les DVD par exemple, et ce, sur un marché qui est encore émergent », explique le fondateur de Vodeo.tv, Frédéric Pie. En pratique, avec le retrait des DRM, l'internaute qui achète et télécharge une oeuvre peut maintenant la copier sur un DVD et la lire sur un appareil de salon compatible DivX ou sur d'autres supports comme un baladeur vidéo. L'absence de DRM, rend les programmes concernés également accessibles aux ordinateurs Mac et Linux, ce qui n'était pas le cas auparavant, DRM de Windows oblige. Autre nouveauté, chaque semaine, la rédaction de Vodeo.tv proposera également en accès gratuit et en streaming, un documentaire sélectionné. Les internautes auront sept jours pour en profiter. Le premier de la série est Lénine secret. L'affiliation au service de la VOD
Pour gagner en visibilité, le service de VOD a dernièrement multiplié les partenariats : avec Free, Neuf, Alice, Alapage, Amazon, Fnac.com... Il dit totaliser aujourd'hui une audience mensuelle 300 000 visiteurs uniques, sur un marché de plus en plus concurrentiel. Les négociations sont parfois longues pour enrichir le catalogue. Pour obtenir les programmes de la BBC par exemple, elles ont débuté en décembre 2004 pour une mise en ligne en janvier 2008, indique Frédéric Pie. Les responsables du site cherchent donc à se diversifier en imaginant de nouveaux services. C'est le cas avec Affileo.net. A l'instar d'un Tradoubler, le service permet aux blogueurs de faire du commerce en affiliation c'est-à-dire de gagner un peu d'argent en copiant sur leur site des lignes de code comme s'ils mettaient en ligne une vidéo de YouTube. Si les visiteurs du site décident d'acheter ou de voir en streaming les programmes, le gestionnaire du site est alors rémunéré, entre 5 % et 8 % d'une transaction.
Nokia voit Linux progresser sans menacer sa domination[modifier]
Nokia voit Linux progresser sans menacer sa domination Nokia s'attend à voir progresser la proportion de téléphones mobiles équipés du système d'exploitation Linux, tout en estimant qu'il faudra du temps à celui-ci pour s'imposer réellement sur le marché.
http://www.lepoint.fr/null/nokia-voit-linux-progresser-sans-menacer-sa-domination/1083/0/251688
Nokia s'attend à voir progresser la proportion de téléphones mobiles équipés du système d'exploitation Linux, tout en estimant qu'il faudra du temps à celui-ci pour s'imposer réellement. Jusqu'ici Linux, le plus populaire des logiciels libres, n'a connu qu'un succès limité sur le marché du mobile mais il progresse avec la mise sur le marché de nouveaux combinés qui en sont équipés. Google, notamment, a décidé de fonder sur Linux le développement de sa plate-forme mobile Android. Le fait que Linux soit un logiciel libre signifie par ailleurs qu'un nombre important de développeurs peut travailler sur son code, ce qui pourrait se traduire par des programmes plus intéressants ainsi que des économies pour des entreprises comme Nokia. Anssi Vanjoki, vice-président du groupe finlandais, a déclaré lundi à Reuters que le système Linux n'était pas encore totalement mature pour s'assurer une position majoritaire sur le marché des systèmes d'exploitation mobiles, qui est pour l'instant largement dominé par la plate-forme S60 de Nokia. Celle-ci, fondée sur le système d'exploitation de la firme britannique Symbian, est encore loin devant Windows Mobile de Microsoft. Le mois dernier, Rick Simonson, directeur financier du premier fabricant mondial de téléphones portables a qualifié lors d'une réunion d'investisseurs le rôle de Linux de "terriblement important". Les "tablettes" internet, des terminaux multimédia de poche permettant d'accéder à internet, de Nokia sont ainsi équipées de Linux. Sami Torma, version française Myriam Rivet
Charte de confiance : interview du Forum des Droit sur l'Internet[modifier]
PC Inpact, Rédigé par Marc Rees, le 10 juin 2008 http://www.pcinpact.com/actu/news/44084-charte-confiance-falque-pierrotin-FDI.htm
__Isabelle Falque-Pierrotin du Forum des droits sur l’Internet a accepté de répondre à plusieurs de nos questions sur la Charte sur la Confiance en ligne. Une interview à lire puisque le FDI est impliqué de près dans ce texte, ce qui nous permet d'appréhender un peu mieux ce document en gestation au contenu flou.__
Phoronix teste la performance de toutes les machines Linux[modifier]
Phoronix Test Suite vient de passer en version 1.0. Cet outil open source gratuit regroupe un ensemble de scripts paramétrables pour le test des performances de PC ou de serveurs sous Linux. Bertrand Braux, 01net., le 09/06/2008 à 11h17
Edité par le site www.phoronix.com, spécialisé dans l'information sur les nouveautés autour de Linux, Phoronix Test Suite vient tout juste d'être annoncé en version 1.0. Cet outil de benchmark (banc d'essai) est l'aboutissement de plusieurs années de tests, effectués par le site Phoronix qui compare régulièrement les performances de machines Linux. Fidèle à ses convictions sur le logiciel libre, ce site - qui revendique 200 millions de clics par an, a fini par regrouper toutes ses compétences dans le test de performance dans un outil en open source sous licence GPL v3.
http://www.01net.com/editorial/382266/phoronix-teste-la-performance-de-toutes-les-machines-linux/
« La suite Phoronix Test Suite n'est pas uniquement un ensemble de scripts de test figés que nous avons utilisé en interne et que nous ouvrons à tout le monde. Le code de cette suite ne contient aucun paramètre de test spécifique. Celle-ci est une plate-forme de test et d'étalonnage pour les systèmes Linux, sur laquelle repose une couche XML, permettant de paramétrer des profils de test », explique Michael Larabel fondateur de phoronix.com sur le site. Une palette complète de tests
Ainsi Phoronix Test Suite propose toute une palanquée de scripts permettant de tester sa machine dans de nombreux domaines : encodage audio (MP3, Ogg Vorbis et Flac), compilation de logiciels (noyau Linux, MPlayer, PHP et ImageMagick), compression (gzip), calcul pur (Super PI), vitesse de la mémoire (RAMspeed et Bandwith), vitesse du disque dur (hdparm), performances graphiques (glxgears, Nexuiz, Doom 3 et Enemy Territory : Quake Wars). Chaque utilisateur pourra créer ses propres profils de test et partager ses résultats en ligne avec une communauté d'utilisateurs sur le sité dédié PTS Global . Selon l'éditeur, le logiciel fonctionne actuellement avec toutes les distributions Linux, qu'elles soient installées sur PC ou serveur. Seule contrainte: la présence de PHP 5 est requise. Signalons enfin que cet outil est gratuitement téléchargeable sur www.phoronix-test-suite.com.
Vente liée : la DGCCRF prendra position le 3 juillet[modifier]
la rédaction de ZDNet, publié le 10 juin 2008 http://www.zdnet.fr/actualites/informatique/0,39040745,39381638,00.htm
__Réglementation - Entamées fin 2006, les consultations de la DGCCRF au sujet de la vente liée prendront fin le 3 juillet avec l'ensemble des parties prenantes, industriels et associations. Au terme d'un débat qui s'annonce difficile, l'organisme dévoilera ses propositions.__
Étape importante dans l'épineux dossier de la vente liée des PC et des OS : la DGCCRF (*) tiendra le 3 juillet une réunion de synthèse au cours de laquelle elle doit clore son cycle de concertations sur le sujet. À l'ordre du jour : présentation du contexte et de ses travaux, des dernières jurisprudences en la matière et des propositions de l'organisme. La session sera suivie d'un large débat.
Depuis 2006, la DGCCRF travaille sur le dossier en auditionnant les différentes parties prenantes. Après les associations de consommateurs fin 2006, elle a rencontré les industriels en 2007. Cette dernière réunion devrait réunir tous ces acteurs qui permettra au gendarme de la concurrence de prendre enfin position.
Le débat s'annonce animé. À l'occasion d'une réponse à une question écrite du député Philippe Tourtelier, Luc Chatel (secrétaire d'Etat chargé de l'Industrie et de la Consommation) indiquait récemment que la DGCCRF n'a pu mener à bien sa mission de conciliation entre les représentants des industriels et des consommateurs, en raison de trop fortes divergences entre les parties.
__L'April pour des logiciels en version d'évaluation sur les PC__
« Nous ne pouvons que nous satisfaire que la DGCCRF convoque cette réunion de synthèse entre les différents acteurs », se réjouit l'association de défense des logiciels libres April, qui a été convoquée. « Pour cette réunion, nous espérons faire aboutir nos propositions visant à garantir l'information des consommateurs et l'optionnalité des offres. »
L'association milite pour avoir recours soit à des logiciels préinstallés en version d'évaluation, de sorte que le consommateur ne paye les logiciels qu'après l'acquisition du matériel et s'il souhaite les conserver ; soit à des codes d'activation pour les logiciels préinstallés, afin que le consommateur puisse choisir les logiciels qu'il souhaite utiliser au moment de l'achat.
« Les codes d'activation seraient fournis dans une enveloppe séparée de l'ordinateur, pour que le distributeur puisse aisément fournir les codes des seuls logiciels que le consommateur souhaitera acquérir. »
(*) Direction générale de la concurrence de la consommation et de la répression des fraudes
La Charte pour la confiance finalisée en juillet, sans l'ASIC : Fausse note dans l'ASIC[modifier]
Rédigée par Marc Rees le mardi 10 juin 2008 à 09h50
http://www.pcinpact.com/actu/news/44085-confiance-charte-ligne-FDI-ASIC.htm
__Alors que la démarche consensuelle semblait s’imposer dans l’édition de la Charte sur la Confiance en Ligne, la réalité des faits se démarque des affirmations.__
Nous avons contacté les professionnels du Web, représentés par l’Association des Services Internet Communautaires (ASIC), sur leur position quant à ce document qui suscite quelques interrogations. L’ASIC qui compte parmi ses membres Google, Wikipédia, Yahoo, Microsoft, etc. ne mâche pas ses mots :
« A ce jour, l'ASIC a pris connaissance du projet de texte par l'intermédiaire de la presse qui s'est fait écho de ce projet du ministère de l'Intérieur. A aucun moment les membres de l'ASIC, bien que directement concernés par les mesures envisagées, n'ont été consultés sur ce document. »
Du coup, le gouvernement semble avoir une vue parcellaire du web ne discutant qu’avec les opérateurs de télécommunications: « Libre au ministère de négocier directement avec les seuls opérateurs de télécommunications, mais il est évident que ces derniers ne sauraient exprimer l'opinion et la position des acteurs du web 2.0 et en particulier des diverses plates-formes tant de vidéo, de commerce électronique que d'hébergement de blogs. »
La conclusion s‘impose pour l’Asic : « il revient en conséquence au Ministère, en l'absence d'implication et de discussion avec les membres de l'ASIC, de supprimer tous les engagements qui seraient susceptibles de s'appliquer à nos membres ». Isabelle Falque Pierrotin nous l'affirmait ce matin dans une interview publiée dans nos colonnes : « nous serons très vigilants que la concertation multiacteurs soit maintenue, car ce principe ne nous parait pas théorique. Sur internet, on sait bien que pour fixer les règles et surtout faire en sorte qu’elles soient respectées, il faut que les acteurs soient d’accord. »
__De nouvelles consultations nécessaires__
Outre ces questions de concertation, l’ASIC estime « nécessaire de ne pas agir dans la précipitation. Ce document du ministère de l'Intérieur semble s'appuyer sur des travaux du Forum des droits sur l'internet qui se sont déroulés de mi-2005 à début 2006. Depuis deux ans, l'internet a évolué, les pratiques et les acteurs aussi. La recommandation du FDI souhaitait formaliser les meilleures pratiques des acteurs de l'internet. Si c'est à nouveau le souhait du ministère de l'Intérieur, il est nécessaire bien évidemment de consulter les acteurs et d'identifier les meilleures pratiques en 2008 ».
__Un texte à valider dès le mois de juillet__
Une consultation à envisager rapidement. Selon les données qui se sont échangées lors d’une réunion au ministère de l’Intérieur lundi matin, la Charte sur la Confiance devrait aboutir dès le mois de juillet (et non pas le 10 juin, comme cela avait pu être dit la semaine dernière). Aujourd’hui seulement, les opérateurs remettront leurs observations dans le cadre des Assises du Numériques.
Ces opérateurs acceptent pour la plupart les grandes lignes directrices de ce texte, mais évidemment les débats actuels sont aussi d’ordres économiques (qui paiera quoi pour le filtrage notamment, etc.) ou juridiques (éventuelle modification des textes de loi pour faciliter l’adoption de la Charte, comme ce fut prédit). Des tractations actuelles ont encore lieu au sein des opérateurs pour établir un texte en harmonie avec les intérêts de la profession des télécoms, acteurs du web 2.0 exclus donc.
Aful, Dmoz, x86 : la valse des anniversaires[modifier]
10-06-2008 Par David Feugey
Plusieurs dates clés commémorent des projets qui ont marqué le grand public
http://www.silicon.fr/fr/news/2008/06/10/aful_dmoz_x86_la_valse_des_anniversaires
Juin 2008 est riche en dates anniversaires pour les projets communautaires. L'Aful (Association Francophone des Utilisateurs de Linux et des Logiciels Libres), menée par son président Thierry Stœhr, fête ainsi ses dix années d'existence (la parution au journal officiel date du 30 mai 1998). Cette association francophone est devenue un acteur majeur du monde des logiciels libres, au côté de l'April.
Même age pour Dmoz, créé le 5 juin 1998. Ce répertoire de sites web compte aujourd'hui plus de 590.000 catégories pour plus de 4,5 millions de sites recensés. L'Open Directory Project est entièrement alimenté par ses 80.000 contributeurs (aucun robot de recherche n'est utilisé). C'est un des projets communautaires les plus importants du web. Les données sont réutilisables (et réutilisées par plusieurs moteurs de recherche), sans contrepartie financière.
Date plus symbolique, mais combien importante pour les utilisateurs d'ordinateurs personnels, l'architecture x86 souffle sa trentième bougie. Le 8 juin 1978, Intel introduisait le 8086, processeur 16 bits dont le jeu d'instructions sert toujours de socle aux puces modernes de la compagnie, mais aussi à celles d'AMD, VIA, etc.
Longtemps critiquée pour son manque d'élégance face aux processeurs Risc (Arm, Mips, PowerPC, Sparc, etc.), l'architecture x86 a su tirer son épingle du jeu grâce aux machines compatibles IBM PC. Leur clonage massif a su assurer le succès de ce processeur… mais aussi celui des systèmes d'exploitation Microsoft.
Les Lutèce d’Or 2008 remis le 24 septembre 2008[modifier]
10 juin 2008
Dans le cadre de « Paris Capitale du Libre » qui se tiendra à la Maison internationale de Paris les 24 et 25 septembre prochains, la FniLL organise pour la troisième année consécutive, la remise des Lutèce d’Or, le 24 septembre dans le salon d’honneur de la Mairie du 13ème arrondissement de Paris. Toolinux s’y associe.
http://www.toolinux.com/news/services/qui_seront_les_laureats_des_lutece_d_or_2008_ar10688.html
En 2007, les Lutèce d’Or ont récompensé Framasoft, InLibroVeritas, VideoLAN, la ville de Rennes, le MINEFI, Qualigaz, France Telecom R&D, le Ministère des Affaires Étrangères, INL, l’Assemblée Nationale, Neuf Cegetel et PloneGov.org. Ces trophées ont pour objectif de récompenser les meilleurs projets et actions dans le domaine des logiciels libres, en France et au niveau mondial, dans différentes catégories : public, privé, communautaire, associatif,... Pourquoi ne pas apporter votre voix, votre candidature ou celle d’un membre éminent du monde du Libre ? Participez dès aujourd’hui à ce concours ! Les inscriptions aux Lutèce d’Or 2008 sont ouvertes sur www.paris-libre.org ! A qui s’adresse cet appel ? Aux organisations qui ont mis en place des technologies libres dans leur système d’information et qui ont ainsi contribué au développement de logiciels libres, aux prestataires informatiques, qui ont participé à la mise en place d’un projet libre pour le compte d’un de leurs clients (ce sera l’organisation cliente qui sera récompensée et non le prestataire), aux communautés du logiciel libre qui s’investissent et mobilisent leur énergie, et qui, grâce à leur travail permettent aujourd’hui d’avoir des logiciels matures et performants, aux associations qui stimulent et aident à développer et à faire évoluer le monde du Libre, aux personnalités qui ont eu un engagement fort dans les logiciels libres, à toute autre personne qui souhaite récompenser un projet, une action, ou mettre en avant une personnalité influente dans le domaine des logiciels libres. Vous vous reconnaissez ? Alors, nous vous invitons dès aujourd’hui à télécharger le dossier de candidature sur le site de Paris Capitale du Libre à l’adresse www.paris-libre.org. Chaque dossier devra être envoyé avant le vendredi 5 septembre 2008 minuit. Ce dossier est articulé autour de plusieurs grands axes : objectifs poursuivis, contexte, rapprochement avec les communautés, moyens mis en oeuvre, conséquences et bénéfices du projet sur le marché des logiciels libres, créativité du projet, place de l’innovation dans le projet et son avenir. Le jury est présidé par Alexandre Zapolsky, le Président de la FniLL, qui a pour mission de coordonner les délibérations. Il est composé des soixante plus imminents spécialistes du logiciel libre, des décideurs aux journalistes spécialisés. Les délibérations finales auront lieu le mardi 16 septembre 2008. La cérémonie de remise des Lutèce d’Or aura lieu à l’occasion d’un dîner le 24 septembre 2008 dans le salon d’Honneur de la Mairie du 13ème arrondissement de Paris. Ce dîner réunira les 500 personnalités du marché des logiciels libres au niveau mondial.
Open XML : 4 pays font appel et bloquent sa standardisation[modifier]
Rédigée par le mardi 10 juin 2008 à 11h47 http://www.pcinpact.com/actu/news/44090-Open-XML-appel-bloquent-standardisation.htm
L'Office Open XML, le format de Microsoft visant à concurrencer le format ouvert OpenDocument, l'ODF, fait décidément couler beaucoup d'encre, notamment depuis qu'il a été approuvé par l'Organisation internationale de normalisation (ISO). Cette validation de la part de l'ISO a cependant créé de nombreux remous parmi certains de ses membres, au nombre de 157 à l'heure actuelle.
L'Afrique du Sud, le Brésil, l'Inde et le Venezuela ont ainsi officialisé sur le site de l'ISO leur désaccord avec le vote de l'Organisation non gouvernementale. Contestant depuis quelques semaines la validité du vote de l'Open XML (voir actualités relatives), ces pays ont passé la vitesse supérieure en faisant appel de ce vote, procédure autorisée au sein de l'ISO.
« Conformément aux règles de ISO/IEC régissant le travail de leur comité technique mixte ISO/IEC JTC 1, Information technology, les appels sont actuellement examinés par le Secrétaire général de l'ISO et de l'IEC, qui, dans un délai de 30 jours (à la fin du mois de juin), et quelle que soit la suite des consultations qu'ils jugent appropriées, sont tenus de soumettre les appels, avec leurs commentaires, au conseil d'administration technique de l'ISO et au conseil d'administration de standardisation de l'IEC. »
Et ensuite, à quoi doit-on s'attendre ? Selon l'ISO, les deux conseils d'administration décideront si les appels doivent être traités ultérieurement ou non, et, s'ils sont en faveur de la procédure demandée par ces quatre pays, les présidents des deux conseils d'administration établiront un comité de conciliation, qui aura pour but de résoudre les appels en question.
Toujours d'après l'ISO, le processus pourrait prendre plusieurs mois. Or « selon les règles de l'ISO et de l'IEC, un document faisant l'objet d'un appel ne peut être publié sous forme de norme ISO/IEC alors que l'appel est en cours ». En somme, l'Open XML ne sera pas un standard tant que cette affaire ne sera pas close.
Source de l'INformation : ISO
L'Europe encourage l'utilisation des logiciels libres[modifier]
10/06/2008 12:14
La commissaire européenne à la Concurrence a vivement encouragé les administrations et les entreprises à utiliser des logiciels libres. "Il s'agit d'une décision intelligente", a-t-elle ajouté. Microsoft, qui s'est vu infliger une amende record par cette même commissaire, appréciera...
"Aucun citoyen ni aucune société ne devrait être forcé ou encouragé à choisir une technologie fermée plutôt qu'une autre libre." C'est en ces termes que Neelie Kroes, la commissaire européenne à la Concurrence, s'est adressée à son assemblée lors d'une conférence à Bruxelles. "L'interopérabilité est un sujet important pour la Commission, et l'usage de standards libres qui ont fait leurs preuves est un bon moyen pour y parvenir", a-t-elle poursuivi. Une information qui émane de l'International Herald Tribune et de Bloomberg.
En lutte acharnée depuis plusieurs années avec Microsoft, Neelie Kroes a fini par gagner son combat, lui imposant une amende de 1,68 milliards d'euros pour n'avoir pas dévoilé des informations permettant la compatibilité de ses logiciels avec d'autres produits concurrents. Microsoft, sentant le vent tourner avec l'apparition des plates-formes open-source, tente d'ailleurs de mettre tout son poids dans la balance, un peu partout dans le monde, pour que les administrations n'abandonnent pas son système d'exploitation et/ou ses logiciels.
En septembre, le gouvernement néerlandais avait annoncé être favorable aux standards open-source. Les autorités de Singapour ont abandonné Microsoft Office en 2004, et celles de la ville de Munich ont fait de même avec Windows en préférant Linux. Des exemples pareils se multiplient. Chez nous, on se souvient qu'il y a quelques semaines, au grand dam de Microsoft, la Communauté française n'avait pas requis la présence de Windows dans son appel d'offre pour 40.000 ordinateurs destinés aux écoles.
Neelie Kroes a donc encouragé les entreprises et les administrations publiques à prendre ou à continuer sur cette voie de l'open-source. Elle va plus loin en exhortant la Commission elle-même d'adopter des logiciels libres. "La Commission a beaucoup à apprendre" de ces administrations qui ont déjà fait le pas vers les logiciels libres. Les autorités européennes "ne devraient pas s'appuyer sur un seul fournisseur et devraient refuser de s'enfermer dans une technologie particulière, ce qui compromet l'entretien et le contrôle total des informations en sa possession". Selon Bloomberg, pour l'instant, la Commission n'achète des logiciels open-source pour ses 32.000 employés que si cela coûte réellement moins cher, et si cela est dans l'intérêt du citoyen.
Matthieu Lethé
OXML : la Commission européenne veut des standards ouverts[modifier]
Rédigée par Vincent Hermann le mercredi 11 juin 2008 à 12h13 http://www.pcinpact.com/actu/news/44116-europe-oxml-neelie-kroes-standards.htm
La normalisation du format Office Open XML de Microsoft, devenu simplement Open XML, a eu l’air pendant un temps de calmer les esprits. Toutefois, la pression, les irrégularités et les zones d’ombre accumulées durant la procédure ont fini par ressurgir, et quatre pays contestent désormais la validité de la norme ISO 29500 : l’Inde, le Brésil, l’Afrique du Sud ainsi que le Venezuela.
Dans ce climat tendu, la Commissaire européenne à la concurrence Neelie Kroes a largement enfoncé le clou sur le chapitre des standards. Personnage déjà très impliqué dans le combat qu’a mené l’Europe contre Microsoft, avec à la clé deux amendes records de 497 et 899 millions d’euros, Neelie Kroes a clairement insisté sur l’importance de se tourner vers des standards ouverts. Le point essentiel est, selon la Commissaire, de ne pas se laisser enfermer dans des technologies contrôlées par une seule entreprise.
Elle ne remet pas en cause les standards de facto, mais il existe une différence dans ce domaine, que la Commissaire verbalise précisément : « Des standards peuvent également apparaître, de facto, des marchés : un système d’exploitation particulier ou un format de document. Ces standards peuvent être une bonne chose s’ils émergent de préférences exprimées par les consommateurs. Mais ils peuvent être également problématiques, ne possédant pas de garanties de divulgation que les organismes de standardisation demandent habituellement. »
Neelie Kroes s’est par ailleurs montrée inquiète des influences extérieures sur les processus de standardisation. Elle fait bien entendu référence à l’enquête lancée par la Commission européenne sur les dessous de la standardisation d’Open XML. La Commissaire met ainsi en avant le danger de voir disparaître les mérites technologiques en faveur d’éléments perturbateurs tels que les pressions commerciales.
Source de l'INformation : Commission européenne <<<<<<< Votre version
Google Gears déjà compatible avec Firefox 3[modifier]
La rédaction de ZDNet, publié le 11 juin 2008 http://www.zdnet.fr/actualites/internet/0,39020774,39381650,00.htm
Google a préparé une version de son extension open source pour navigateur Gears compatible avec Firefox 3, le navigateur de la Mozilla Foundation qui doit sortir dans les jours à venir. Rappelons que Gears est une extension qui permet de faire fonctionner certains services « offline », sans connexion internet.
L'extension est déjà compatible avec Firefox 2 et Internet Explorer. « Nous voulons faire fonctionner Gears sur tous les navigateurs et sur toutes les principales plates-formes », souligne Sundar Pichai, vice-président chez Google. Il espère que Gears devienne un standard HTML pour la création d'application offline.
Google planche également sur de nouvelles fonctionnalités destinées à étendre l'utilisation d'applications web. Lors d'une démonstration la semaine dernière, le moteur a présenté un module de géolocalisation ou bien la possibilité de créer des raccourcis aisément pour accéder à certains sites web depuis le bureau d'un PC.
__Myspace adopte également Gears__
« Nous avons débuté avec la fonctionnalité offline, une fonctionnalité très compliquée à mettre en place parce qu'elle suppose la synchronisation de données avec de multiples ordinateurs », a expliqué Aaron Boodman, un des développeurs de Gears. « Je ne pense pas que toutes les applications web ont besoin d'une fonctionnalité offline. Et si nous ajoutons de nouvelles fonctionnalités, elles attireront plus de sites web. »
Ainsi le réseau social Myspace vient tout juste d'annoncer qu'il allait utiliser Gears pour améliorer les fonctionnalités de sa messagerie électronique. Lorsque les membres du réseau se connectent à leur messagerie, ils sont invités à l'installer
Après les DRM, Microsoft veut faire respecter... les bonnes manières[modifier]
Guillaume Champeau - publié le Mercredi 11 Juin 2008 à 17h14 http://www.numerama.com/magazine/9910-Aprs-les-DRM-Microsoft-veut-faire-respecter-les-bonnes-manires.html
En cherchant à imposer les DRM contre la volonté des consommateurs, Microsoft avait une seule obsession en tête : faire respecter par la technique une loi (le droit d'auteur) que le grand public refuse de respecter spontanément. Les DRM n'ont pas marché, mais l'idée qu'il est possible d'utiliser la technologie pour contraindre les hommes à respecter ce qu'ils ne respectent pas spontanément n'est pas morte.
Pour preuve, Microsoft a déposé un brevet pour protéger __les "DMP" (Device Manners Policy")__, une sorte de DRM dont le but est de s'assurer contre leur gré que les utilisateurs d'appareils électroniques ne soient pas utilisés dans des lieux ou à des moments inappropriés.
Avec la gestion des DMP, les salles de cinéma pourraient par exemple demander automatiquement aux téléphones mobiles de se mettre en mode silencieux, les musées pourraient interdire aux appareils photos de fonctionner ou de déployer leur flash, les entreprises pourraient interdire la captation d'images ou de son dans les réunions confidentielles, etc, etc. Et ça ne serait pas limité aux appareils portatifs. Microsoft imagine par exemple que les municipalités pourraient faire respecter automatiquement des limitations de vitesse ou obliger à l'allumage des feux dans les tunnels.
Reste à voir comment Microsoft compte réussir à imposer un standard pour que l'ensemble des appareils soient compatibles et respectent parfaitement la norme. Reste ensuite et surtout à voir comment le grand public va accepter de voir son comportement dicté par la technique.
Filtrage et Internet : témoignage d'un FAI français[modifier]
Rédigé par Marc Rees le 11 juin 2008 http://www.pcinpact.com/d-127-1-filtrage-temoignage-FAI.htm
__Nous avons contacté l’un des fournisseurs d’accès français pour nous entretenir avec lui sur les questions de filtrage. Entre le contrôle des flux demandé par l’industrie du disque, qui scrute avec intérêt les solutions en gestation dans la lutte contre la pédophilie, ce FAI nous explique les principales difficultés et les véritables enjeux soulevés par ces questions.__
Le processus de standardisation de MS-OOXML est suspendu[modifier]
linuxfr.org, par Nÿco, le 11/06/08 https://linuxfr.org/2008/06/11/24201.html
Quatre membres de l'ISO et l'IEC, le Brésil, l'Inde, l'Afrique du Sud et le Venezuela, ont fait appel contre l'approbation des formats MS-OOXML (formats brevetés et dépendants de formats propriétaires pondus par Microsoft pour lutter contre le standard ouvert OpenDocument) comme standards internationaux ISO/IEC.
Ces appels sont actuellement entrés en considération par les secrétariats généraux de l'ISO et de l'IEC, qui vont les soumettre avec commentaires aux ISO Technical Management Board et IEC Standardization Management Board, sous 30 jours.
Ces deux entités vont décider si elles vont donner suite à ces appels. Suite à quoi le processus, le cas échéant, peut durer plusieurs mois.
Un document sujet à un appel ne peut être publié en tant que standard international ISO/IEC durant cet appel.
http://www.iso.org/iso/pressrelease.htm?refid=Ref1136
http://tech.slashdot.org/article.pl?sid=08/06/10/2018238
http://www.robweir.com/blog/labels/ISO.html
«Se mettre à l’abri des collusions»[modifier]
Internet. Carlo Revelli, créateur d’Agoravox, explique pourquoi ce site de journalisme participatif va devenir une fondation, basée en Belgique : Recueilli par FRÉDÉRIQUE ROUSSEL QUOTIDIEN : mercredi 11 juin 2008
Agoravox, site de journalisme participatif, vient de fêter ses 3 ans. Littéralement «la voix de la place publique» a inauguré en France un modèle imité sur le sud-coréen Ohmynews lancé en 2000 qui fait des citoyens des producteurs d’informations. Créé au sein de Cybion, société spécialisée dans la veille sur Internet, le site Agoravox devient aujourd’hui une fondation. Le modèle semble séduire de plus en plus pour l’indépendance financière qu’il procure, mais les lois françaises le rendent difficilement applicable à un média. Entretien avec Carlo Revelli, le créateur d’Agoravox, qui se rend la semaine prochaine à Bruxelles pour signer les statuts. Agoravox aura à l’avenir son siège dans la capitale belge.
http://www.liberation.fr/actualite/ecrans/331187.FR.php
Pourquoi avoir choisi le modèle de la fondation ? Dans la sphère de l’Internet - logiciel libre, open source ou collaboratif -, c’est un modèle assez courant, surtout dans les pays anglo-saxons. Regardez la fondation Mozilla, Wikimedia qui gère Wikipédia, Linux, Ubuntu, la Fondation pour le logiciel libre de Richard Stallman ou encore l’Electronic Frontier Foundation. Toutes proportions gardées, nous réfléchissons depuis longtemps à l’évolution d’Agoravox dans cette direction. Participatif, le site rassemble plusieurs milliers de contributeurs ; ils le font, donc cela leur appartient. Il fallait une cohérence avec notre modèle de journalisme participatif. De plus, nous souhaitons protéger son indépendance et le mettre à l’abri des collusions. A ce sujet, je ne peux pas m’empêcher d’avoir en tête la célèbre déclaration d’indépendance du cyberespace que John Perry Barlow, le cofondateur d’Electronic Frontier Foundation, eu le courage de lire à Davos devant tous les chefs d’Etat de la planète, en 1996. Ce texte garde toute son actualité… Avez-vous eu des propositions de rachat ? Des investisseurs de l’univers des médias et de la finance nous ont approchés. Agoravox a même été valorisé, au moment de la présidentielle et du pic d’engouement pour le Web 2.0, entre 10 et 15 millions d’euros… Je n’ai pas créé ce site dans l’optique de faire du profit. Nous sommes arrivés à un moment où il faut inventer de nouveaux modèles médiatiques qui concilient éthique et quête de neutralité informationnelle. Pourquoi en Belgique ? Au départ, nous souhaitions créer notre fondation en France, mais les contraintes légales sont trop exigeantes. Une fondation d’utilité publique nécessite un apport minimum d’un million d’euros, d’attendre au moins un an pour l’obtention du statut et surtout d’accepter que le ministère de l’Intérieur siège au conseil d’administration. Il était hors de question de lier Agoravox à un ministère ou à une fonction politique. En Belgique, les conditions sont plus flexibles et mieux à même de garantir pleinement l’indépendance de la structure, sans mise financière de départ. Et l’avis est rendu au bout de trois mois. Comment va s’organiser le financement ? Les rentrées publicitaires devraient réussir à couvrir les frais de fonctionnement du site. Avec une audience qui varie entre 800 000 et 1 million de visites par mois, la publicité rapporte entre 20 000 et 30 000 euros mensuels. En parallèle, la fondation permettra de faire appel aux dons. Mais nous restons prudents. Contrairement aux pays anglo-saxons, le public francophone n’a pas une culture forte dans ce domaine. Ces fonds vont permettre de développer d’autres sites, notamment à l’étranger ; une déclinaison italienne sera prochainement en ligne. Ils vont aussi soutenir financièrement des enquêtes participatives, nouvelle forme de journalisme d’investigation où les internautes apportent informations et témoignages et contrôlent le travail qui se fait sous leurs yeux. Une enquête est en cours sur la pauvreté. Qui siégera au conseil d’administration ? En dehors de Joël de Rosnay (cofondateur de Cybion) et moi, nous souhaitons qu’un rédacteur d’Agoravox soit présent. Les contributeurs sont en train de s’organiser depuis quelques jours pour se constituer en association et poser les bases d’une société de rédacteurs. Agoravox compte un millier de rédacteurs actifs et 35 000 au total qui ont proposé des articles. Il est essentiel qu’un de leurs représentants siège à la fondation. Que pensez-vous des autres sites d’information participatifs ? Ce sont généralement des sites de journalisme avec une politique éditoriale participative. A Agoravox, la politique éditoriale est faite par les rédacteurs eux-mêmes, qui dans leur immense majorité ne sont pas journalistes. Nous sommes 100 % participatifs. Quant au modèle économique, je ne crois pas au payant pour Internet. Et jusqu’à présent, aucun modèle ne s’est révélé particulièrement gagnant. Aucun de ces sites ne croule sous l’or. Notre voie est le mécénat de l’information, à l’image de ProPublica à New York, même si nous ne sommes pas comparables. Il est ainsi assez encourageant de voir qu’aux Etats-Unis, des mécènes américains commencent à financer de véritables initiatives de journalisme d’investigation.
Rentrez dans le livre des records avec Firefox ![modifier]
A l’occasion de la sortie du navigateur Firefox 3, la fondation Mozilla met au défi ses utilisateurs de rentrer dans le Guiness Book des Records. But du jeu : aller sur cette page ou cliquer sur la bestiole dans la colonne de droite, et y laisser une « promesse de téléchargement ». En laissant votre mail, vous serez prévenu le jour de la sortie du logiciel (l’équipe table sur la deuxième moitié du mois de juin). Il s’agira alors simplement de télécharger (gratuitement, rappelons-le) Firefox 3, pour participer au record du plus grand nombre de téléchargements d’un logiciel en 24 heures.
http://blog.lefigaro.fr/hightech/2008/06/faites-sa-fete-a-firefox-3.html
Par téléphone ce matin, Tristan Nitot (photo à gauche, crédit Mozilla), pape du logiciel libre (définition ici) et président de Mozilla Europe, m’a expliqué le but de l’opération. Primo « faire parler de Firefox ». Ensuite, et surtout : « mobiliser la communauté des 180 millions d’utilisateurs actifs autour d’un projet fédérateur » pour la réactiver et tenter de l’élargir.
A mesure qu’il grappille des parts de marché face aux logiciels propriétaires, le navigateur au panda roux subit en effet une dilution de son identité. De plus en plus d'internautes préfèrent Firefox à d’autres navigateurs commerciaux, mais leur choix ne s'effectue que sur les fonctionnalités -de la même manière qu'ils choisissent entre une Renault et une Peugeot- sans connaître pour autant les différences fondamentales qui séparent ces deux types de logiciels. Tristan ne dit pas autre chose quand il m’explique qu’ « avant, quand on n’avait que des geeks hardcore qui connaissaient les licences libres par cœur, c’était facile de mobiliser la communauté ».
Les promesses viennent aujourd’hui de passer la barre du million. Dans le détail, les Eta ts-Unis sont loin devant (168.000 promesses), devant la Pologne, le Brésil et la France. « On pensait que les Allemands auraient l’avantage du nombre, mais les Polonais ont fait très très fort », s’amuse Tristan. Mais si l’on rapporte le nombre de promesses au nombre d’habitants, le classement est très différent, avec aux premiers rangs la Slovénie, l’Estonie, ou l’Islande. La France arrive alors 37eme. Explication : « Nous sommes les seuls à fournir un navigateur à des gens qui n’en avaient pas dans leur langue natale », ce qui contribue à souder des communautés très actives. Voir les stats détaillées au 8 juin.
Pour ceux qui ne connaissent pas bien le fonctionnement de Mozilla, les logiciels sont « localisés » dans différentes langues par les utilisateurs eux-mêmes. Quelques volontaires islandais suffisent à produire un browser traduit en islandais, et Firefox 3 comptera donc 48 langues à son lancement. Une pratique qui s’étend aux entreprises à vocation commerciale, avec la traduction récente de Facebook en français. Tristan Nitot ne condamne pas cette pratique, mais souligne la différence : « Avec Firefox, nous produisons un bien commun. Facebook ne sera jamais un bien commun. Je regrette seulement que les utilisateurs ne soient pas toujours conscients de la valeur de leur travail ».
SNEP : sur le filtrage, « on est au point mort avec les FAI »[modifier]
Rédigée par Marc Rees le jeudi 12 juin 2008 à 11h13 http://www.pcinpact.com/actu/news/44136-hadopi-herve-rony-filtrage-contenu.htm
Nous avons interrogé ce matin Hervé Rony, directeur général du SNEP (Syndicat national de l'édition phonographique) sur l’actualité du filtrage, relancée au ministère de l’Intérieur. Le SNEP est la principale association qui défend les intérêts de la profession et est membre de la fédération internationale de l'industrie du disque. Elle réunit en son sein la plupart des maisons de disques dont les quatre principales (Universal, Sony BMG, Warner et EMI). Ses propos rejoignent ceux de la SPPF, qui représente, elle, une partie des producteurs indépendants du disque.
__Que pensez-vous de ces débats sur le filtrage qui ont lieu autour des sites pédophiles ?__
On est dans l’hypocrisie permanente avec les FAI : « je peux, je ne peux pas, je peux… » Je reste arcbouté sur une position qui me parait raisonnable, car intellectuellement honnête qui est « expérimentons le filtrage » ! Je ne sors pas de cette stratégie et trouve étrange que les FAI s’y refusent. D’un côté visiblement, ils ont l’air d’avancer avec les questions de pédophilie. Mais ce que je n’accepte pas des FAI, c’est de ne pas être honnête intellectuellement. Soit, ils disent « on ne peut pas, c’est trop cher, c’est impossible » etc. auquel cas ils doivent nous le démontrer. Et nous, nous devons démontrer de la même manière que c’est éventuellement possible. Et la seule façon de s’en sortir, je l’ai dit aux pouvoirs publics, est qu’il y ait une médiation et une intervention pour que ces tests aient lieux dans les meilleures conditions.
Moi, la question de la pédophile un, ne m’étonne pas et deux, m’intéresse forcément parce qu’il va bien falloir que Free nous explique que, si c’est possible pour la pédophilie, c’est peut être possible pour des contenus illégaux de musique même si je ne mets pas les deux choses en rapport !
__Oui, mais le filtrage d’URL ne serait pas aussi simple que celui du contenu et surtout, tout ne serait pas aussi aisé même pour le filtrage d’URL contrairement à ce qu’affirme MAM. Cela tiendrait aux spécificités du réseau français (voir le témoignage d'un FAI français).__
Je ne suis pas un spécialiste, c’est pour cela qu’il faudrait qu’en toute transparence on regarde ce qui est simple ou pas. J’ai effectivement entendu dire aussi qu’il était assez compliqué de filtrer les URL. Mais, ceci étant, certains ont dit que c’était une meilleure solution que ce qu’on souhaite tout le temps (le filtrage des protocoles, politiquement délicat même si je pense que c’est faisable), et que filtrer les contenus ne serait au final pas aussi compliqué que filtrer les URL . On n’a pas testé, on n’a pas commencé à regarder ce que ça pouvait donner, donc…
__Mais où en sont les tests qui devaient être pris dans le cadre des accords de l’Élysée ? (accords avec les professionnels et l'État visant notamment à étudier et éventuellement tester des mesures de filtrages)__
On est au point mort ! On tourne en rond avec les FAI sur ces questions, mais nous, on continue notre bonhomme de chemin.
__Et qu’avez justement en vue, sur ce chemin ?__
On va élargir avec l’ALPA(1) et la Sacem, le financement de nouveaux tests, on va voir. L’idée, c’est aussi un travail de conviction auprès des pouvoirs publics pour que ça bouge de leur côté. Maintenant, je crois que notre stratégie est relativement simple : on continue, nous, à faire des tests, ce qui coûte très cher alors qu’on a de moins en moins d’argent (c’est pour cela qu’on a décidé de se mettre à plusieurs).
L’idée est aussi d’apporter le fruit de notre travail à l’Hadopi(2) le jour où elle sera constituée, pour leur dire : voilà le travail qu’on a effectué, maintenant que vous êtes en place, faites votre travail et débrouillez-vous pour que les FAI viennent susciter la discussion. On sait bien que le filtrage, c’est un travail à moyen et à long terme. Ou alors, ceci pourrait nous servir pour d’éventuels contentieux, si jamais il devait y en avoir. Mais l’idée est encore d’aller vers des tests tous ensemble pour éviter les déclarations incantatoires (possible, pas possible, c’est cher, c’est trop cher, etc.)
__Et préférez-vous un encadrement juridictionnel ou que le système soit orchestré par la haute autorité ?__
Tout ce qui peut être mis en place, la régulation interprofessionnelle, est bon. Il n’est pas nécessaire d’aller chercher le juge tout le temps. Le juge c’est un recours seulement en cas de blocage !
1) Association de lutte contre la piraterie audiovisuelle.
2) Haute autorité indépendante qui sera créée dans la future loi Création et Internet, dite loi Olivennes, présentée au vote en automne 2008.
Le projet Hadopi validé par le Conseil d'État, affirme Albanel[modifier]
Rédigée par Marc Rees le jeudi 12 juin 2008 à 17h48 http://www.pcinpact.com/actu/news/44151-culture-albanel-hadopi-avis-favorable.htm
Dans un communiqué pour le moins unique, la ministre Albanel se « félicite de l’avis favorable du Conseil d’État au projet de loi « Création et Internet » ». Cet avis, tout chaud, a été rendu aujourd’hui au Conseil d’État par l’assemblée générale. La ministre indique que la juridiction saisie pour avis « a validé les différentes options retenues par le gouvernement pour mettre en œuvre » les accords Olivennes. Le texte sera présenté au Conseil des ministres dès le 18 juin, avant son examen au Sénat en juillet.
Un curieux nota bene indique par ailleurs « lorsqu’il est favorable, l’avis rendu au gouvernement par le Conseil d’État sur un projet de loi ou de décret prend la forme d’un nouveau projet ».
Si l’avis était finalement favorable sur l’intégralité du texte, cela voudrait dire que le rapporteur du Conseil d’État a été désavoué, ce qui est rare. Ce rapporteur préconisait dans son document que l’Hadopi, une autorité indépendante, ne peut en aucun cas disposer des pouvoirs de filtrage. Sous-entendu, seule l’autorité judiciaire devait être à même de pouvoir exiger des mesures de restrictions d’accès vers tel ou tel site, des mesures attentatoires aux libertés constitutionnelles. Autant le dire, c'était là un cinglant désaveu pour l’industrie qui ne souhaite qu’une chose : se passer du contrôle d'un juge (notre actualité).
Le gouvernement est libre de diffuser le texte du Conseil d'Etat, mais Mme Albanel a pour l’heure préféré s’en tenir à ces affirmations. Le document reste simplement technique et la ministre est libre de le suivre, ou de l’ignorer. En toute évidence, il sera présenté le 18, lors du Conseil des ministres, un document très propre, très net.
L'Internet Society demande le retrait de la riposte graduée[modifier]
Rédigée par Marc Rees le vendredi 13 juin 2008 à 09h58 http://www.pcinpact.com/actu/news/44160-isoc-hadopi-albanel-riposte-graduee.htm
Alors que l’avant-projet de loi sur la riposte graduée (dit Hadopi, ou Olivennes, ou Création et Internet) a été validé par le Conseil d’État, l'ISOC France appelle au retrait du texte. Cette structure, émanation de l'Internet Society, un des pionniers du web aux États-Unis, estime le texte français tout simplement « liberticide ».
Sur la riposte graduée, « un concept magique », l’ISOC France « s’insurge contre cette possibilité de déni de justice et demande le retrait de la loi Hadopi car elle est contraire aux droits les plus élémentaires de toute personne, y compris ceux d’un internaute ». L’ISOC dénonce cette succession d’avertissements conduisant à la sanction et qui court-circuite les procès devant la justice. « Il s’agit de renverser la logique de la punition en procédant – avant toute vérification – à la coupure de l’accès à l'Internet du "supposé pirate" » résume-t-on.
« Aujourd’hui pour poursuivre un "pirate", il faut procéder par étape : identification, procès, apport de preuves, etc.… Avec ces nouvelles dispositions, une simple dénonciation auprès de la Haute autorité pour la diffusion des œuvres et la protection des droits sur Internet (Hadopi) suffira pour "contourner" la justice et "autoriser" jusqu’à un an de coupure d'accès à Internet ».
L’ISOC estime par ailleurs qu’« une fois sa connexion coupée (pour 1 mois, 6 mois ou 1 an), l’internaute qui trouverait le procédé arbitraire, pourra faire un "recours de pleine juridiction devant la juridiction administrative compétente". C’est un type de procès qui permet de faire annuler des décisions de l’administration et éventuellement de toucher un petit dédommagement… quand celle-ci a pris sa décision un peu trop rapidement. Mais, cerise sur le gâteau, la moyenne du temps de décision est de… 21 mois. Presque deux ans ! ».
Du coup, la cellule juridique du groupement n’hésite pas à parler de « Moyen âge d’Internet » pour servir « les intérêts d’un petit groupe de personnes (les Majors, etc.) qui, au bout de 10 ans, n’a toujours pas compris où se situait la force du Net et pense qu’il faut, avant tout, transformer le Réseau en un "outil efficace et moderne de distribution commerciale" », occultant du même coup « les autres usages ou potentiels du Net ».
Pascal Nègre : et si c'était à refaire ?[modifier]
Guillaume Champeau - publié le Jeudi 12 Juin 2008 à 17h18 http://www.numerama.com/magazine/9929-Pascal-Ngre-et-si-c-tait--refaire.html
Depuis que le P2P a fait son apparition à la fin des années 1990, les maisons de disques ont déployé tous les moyens possibles pour faire la chasse aux éditeurs de logiciels de P2P, puis à leurs utilisateurs. Mais malgré cela, le chiffre d'affaires des maisons de disques a été divisé par deux en cinq ans. Et si c'était à refaire ? C'est la question qu'a posé François Sorel au PDG d'Universal Music France Pascal Nègre, sur BFM, dans son émission De Quoi J'Me Mail du 6 juin 2008. Réponse de l'intéressé :
"Le problème c'est que les maisons de disques ne sont pas maîtres de leur destin. Evidemment que moi je voudrais, comme les consommateurs de musique, qu'on ait des DRM qui soient interopérables. C'est pas le cas, parce que tout à coup, Apple a une stratégie, Microsoft en a une autre, et puis voilà".
"Deuxièmement, des FAI comme Wanadoo (Orange) à l'époque, ont fait une campagne de 4x3 dans Paris pour dire 'Abonnez-vous à Wanadoo et téléchargez toute la musique que vous aimez'. Y avait pas un site légal".
En résumé, le seul regret de Pascal Nègre, c'est la faute des autres. Surtout, le Président d'Universal Music reste indécrottable sur la question des DRM. Il reste convaincu que le problème des DRM, ça n'est pas le fait qu'ils sont un obstacle placé dans les pieds de ceux qui payent, et qui est évité gratuitement par ceux qui piratent, mais le fait qu'ils ne seraient pas interopérables. Pire, il reste persuadé que les consommateurs "souhaitent" des DRM interopérables.
Voilà dix ans que le patron de plus grande maison de disques française rumine dans son coin et accuse les industries informatique, alors que nous répétons inlassablement depuis les premières heures que l'interopérabilité est une chimère et qu'elle ne pourra jamais voir le jour, aussi bien pour des impératifs techniques que commerciaux. Pascal Nègre en a enfin pris conscience, mais il se refuse encore à tourner la page et à abandonner son rêve d'un monde où la consommation de la musique serait parfaitement contrôlée par la technique. Triste.
Comme pour se convaincre lui-même ou pour convaincre son auditoire que les DRM restent souhaitables, Pascal Nègre va même dans l'interview jusqu'à oser dire qu'aux Etats-Unis, le marché du numérique est deux fois plus performant qu'en France bien qu'il soit "presque exclusivement avec DRM". Soit Pascal Nègre ne connaît pas son marché, soit il ment allègrement. La plateforme eMusic est restée longtemps le deuxième acteur du marché derrière iTunes, justement parce qu'elle a abandonné très tôt les DRM. Aujourd'hui une autre plateforme importante s'impose et fait progresser derrière elle tout le marché de la musique numérique, parce qu'elle vend exclusivement des MP3 sans DRM : Amazon. Pardonnez du peu.
On serait tenté de dire que le patron d'Universal Music ment volontairement. Il le fait déjà à propos de la riposte graduée lorsqu'il dit qu'aux Etats-Unis, en Angleterre, en Australie ou aux Pays-Bas, les internautes sont déjà avertis par e-mail par leur FAI lorsqu'ils téléchargent des contenus protégés par le droit d'auteur. S'il y a bien des projets ou des expérimentations (en Grande-Bretagne avec Virgin), le système est loin d'être aussi répandu et systématique qu'il le prétend.
Mais c'est peut-être vraiment de l'incompétence et une ignorance de son marché. A la fin de l'interview avec François Sorel, Pascal Nègre jette tout son dévolu sur les offres segmentées par abonnement. Or s'il y a bien un enseignement venu de ces Etats-Unis qu'il érige en exemple, c'est justement que le marché de (la musique par abonnement ne décolle pas|http://www.numerama.com/magazine/9464-La-musique-par-abonnement-ne-seduit-pas.html], et s'apprête même à décroître.
Microsoft Office 2007 Professionnel gratuit pour les enseignants[modifier]
Microsoft vient une nouvelle fois d’activer l’accord-cadre qu’il avait signé avec le ministère de l'Éducation nationale en 2003. D’ici le 18 juin, donc, les enseignants pourront télécharger la suite Microsoft Office 2007 directement depuis le site officepourlesenseignants.fr.
http://www.pcinpact.com/actu/news/44133-microsoft-gratuit-telechargement-enseignants.htm
Selon l’accord-cadre initial, « le Ministère est convaincu des bénéfices majeurs que ces technologies peuvent apporter au bien-être de tous ». Ce contrat passé entre le ministère et la France comprend plusieurs actions conjointes dans les offres de supports et de formations, le soutien d’initiatives réalisées par les enseignants faisant appel aux TIC, et justement des offres de logiciels à des conditions privilégiées.
En guise de support, des tutoriels vidéo B2i par discipline accompagnent l'offre. « Une équipe d’enseignants français a élaboré un ensemble de tutoriels vidéo et de fiches pédagogiques dans six disciplines : le français, l’histoire et géographie, les sciences de la vie et de la terre, les langues vivantes, les sciences physiques et les mathématiques » explique Microsoft.
Dans une stratégie purement économique, cette mesure permet aussi à Microsoft de recentrer l’intérêt sur ses solutions, quand la suite gratuite et libre OpenOffice.org continue son chemin auprès des utilisateurs et surtout des institutionnels. On se souviendra de la réponse extraordinaire de Gilles de Robien, ex-ministre de l'Éducation Nationale, affirmant en pleine Assemblée Nationale : « le poids du logiciel libre au sein de l'éducation nationale reste un argument de négociation avec les éditeurs permettant de tirer les prix des licences commerciales vers le bas » (notre actualité). Objectif atteint.
Rédigée par Marc Rees le jeudi 12 juin 2008 à 09h53
Le marché du logiciel libre va tripler entre 2007 et 2012[modifier]
LeMagIT.fr par Christophe Bardy Le 13 juin 2008 (11:48) http://www.lemagit.fr/article/open-source-idc/562/1/le-marche-logiciel-libre-tripler-entre-2007-2012/
Selon une étude d'IDC, le marché mondial du logiciel Open Source devrait quasiment tripler en valeur entre 2007 et 2012. Evalué à 1,7 milliard de dollars en 2007, le chiffre d'affaires des "éditeurs" de logiciels libres devrait bondir à plus de 4,8 milliards de dollars en 2012, soit une croissance annuelle de près de 25%.
Ce total n'est toutefois qu'une faible partie du chiffre d'affaires généré par l'Open source. Il ne prend en effet en compte que les revenus directs liés au logiciel libre (licences et support). Sans tenir compte des revenus issus des prestations de services des SSII ou des grands intégrateurs et constructeurs.
IDC précise également, si cela était nécessaire, qu'une large partie des logiciels libres sont gratuits. Ce qui diminue d'autant les chiffres de ce créneau. Le libre a donc un impact plus significatif sur l'économie du logiciel en général que ne laissent apparaître les estimations du cabinet d'étude...
Quand l'industrie du disque instrumentalise la pédopornographie[modifier]
Soumis par pi le 13 juin, 2008 - 16:29 sur La Quadrature du Net. http://www.laquadrature.net/fr/quand-lindustrie-du-disque-instrumentalise-la-pedopornographie
On savait déjà que l'industrie du disque n'hésite pas à réclamer l'extension de mesures d'exception prises pour lutter contre le terrorisme, et ce afin de pouvoir mettre en oeuvre la riposte graduée.(*) Mais cette semaine les producteurs ont montré que décidémment rien ne les arrête quand il s'agit d'obtenir des pouvoirs d'exception. Ils n'ont pas hésité à s'immiscer dans le débat sur le filtrage administratif des contenus pédopornographiques pour signaler que leur industrie souhaiterait en profiter.
Interrogé par Pc INpact, le directeur général de la SPPF, Jérome Roger, qui représente les producteurs indépendants français, a déclaré : « les problématiques de l’industrie musicale ne sont pas éloignées de ces autres préoccupations (la pédophilie) qui peuvent paraitre évidemment beaucoup plus graves et urgentes à traiter. Bien évidemment, les solutions de filtrage qui pourraient être déployées à cette occasion devraient faire l’objet d’une réflexion à l’égard des contenus, dans le cadre de la propriété intellectuelle ».
Qu'est ce à dire ? N'est-il pas évident que la pédophilie est un problème beaucoup plus grave et plus urgent à traiter que les demandes des producteurs ? Ou bien l'échange d'images pédopornographiques et l'échange de musique sur internet seraient-ils des activités du même ordre pouvant être combattus avec les mêmes moyens ?
La réponse à ces questions a été donnée à Pc INpact le lendemain par Hervé Rony, directeur général du SNEP, le syndicat des majors : « Moi, la question de la pédophilie un, ne m’étonne pas et deux, m’intéresse forcément parce qu’il va bien falloir que Free nous explique que, si c’est possible pour la pédophilie, c’est peut être possible pour des contenus illégaux de musique même si je ne mets pas les deux choses en rapport ! », et de conclure « Il n’est pas nécessaire d’aller chercher le juge tout le temps ».
Pour mémoire, le projet de loi Olivennes, qui doit être présenté la semaine prochaine en Conseil des ministres, prévoit qu'une autorité administrative indépendante puisse ordonner le filtrage et la coupure d'accès internet en lieu et place de l'autorité judiciaire. Cette disposition a évidemment essuyé de vives critiques : seule l'autorité judiciaire peut actuellement ordonner une mesure privative de liberté comme le filtrage ou la coupure d'accès.
Le ministère de l'intérieur envisage aussi l'évacuation de l'autorité judiciaire en matière de filtrage mais uniquement de sites étrangers et lorsque des contenus pédopornographiques sont concernés, comme l'a souligné la ministre de l'intérieur dans un discours le 10 juin, ajoutant « Il n'a jamais été question de bloquer ou de filtrer tous les sites ; je suis très attachée à cette liberté fondamentale qu'est l'accès à Internet ». A bon entendeur...
La SPPF et le SNEP ont donc une nouvelle fois démontré qu'ils considèrent que les mesures d'exception permettant de lutter contre des atteintes aux personnes parmi les plus réprimées du code pénal devraient être utilisées pour défendre leurs interêts financiers. Leur sortie de cette semaine confirme, s'il était encore besoin, que leur projet est extrémiste. Tous les moyens sont bons pour arriver à leurs fins, y compris les propos et mesures les plus radicales.
---
(*) Le projet de loi Olivennes autorise aussi des agents administratifs à accéder aux données de connexion des internautes sans contrôle de l'autorité judicaire. Actuellement, seuls les services anti-terroristes disposent de ce pouvoir d'exception obtenu à titre temporaire (la mesure doit être prolongée par le Parlement à la fin de l'année).
Microsoft publie le SDK d'Open XML[modifier]
LeMagIT.fr par Cyrille Chausson Le 13 juin 2008 (17:52) http://www.lemagit.fr/article/microsoft-ooxml/564/1/microsoft-publie-sdk-open-xml/
Alors que la procédure de normalisation ISO semble suspendue, Microsoft annonce la sortie du kit de développement (SDK) d'Open XML, dans sa version intégrée à Office 2007. Soit celle qui ne sera pas au final ratifiée par l'ISO, de nombreuses modifications ayant été réalisées depuis, à la demande des instances nationales. Quoiqu'il en soit, le SDK dans sa version 1.0 livre les API nécessaires à la création ainsi qu'à la manipulation de fichiers Open XML. La version 2.0, dont une pré-version est programmée d'ici à la fin de l'été, devrait quant à elle supporter la version finale et normalisée du standard, mais ne sera disponible qu'avec Office 14, prochaine évolution de la suite bureautique prévue en 2009.
Le marché du logiciel libre va tripler entre 2007 et 2012[modifier]
Par Christophe Bardy Le 13 juin 2008 (11:48)
Rubriques : Open source - Business - Editeurs Tags : open-source - idc
Selon une étude d'IDC, le marché mondial du logiciel Open Source devrait quasiment tripler en valeur entre 2007 et 2012. Evalué à 1,7 milliard de dollars en 2007, le chiffre d'affaires des "éditeurs" de logiciels libres devrait bondir à plus de 4,8 milliards de dollars en 2012, soit une croissance annuelle de près de 25%.
Ce total n'est toutefois qu'une faible partie du chiffre d'affaires généré par l'Open source. Il ne prend en effet en compte que les revenus directs liés au logiciel libre (licences et support). Sans tenir compte des revenus issus des prestations de services des SSII ou des grands intégrateurs et constructeurs. IDC précise également, si cela était nécessaire, qu'une large partie des logiciels libres sont gratuits. Ce qui diminue d'autant les chiffres de ce créneau. Le libre a donc un impact plus significatif sur l'économie du logiciel en général que ne laissent apparaître les estimations du cabinet d'étude...