« Synthèse informatique déloyale » : différence entre les versions

De April MediaWiki
Aller à la navigationAller à la recherche
Ligne 80 : Ligne 80 :
Le seul moyen de « compenser »  le piétinement de cette liberté  reste le renforcement de l'information due au consommateur. La Free Software Foundation Europe (FSFE) demande à ce titre qu'il y ait une obligation d'information préalable à l'achat d'un appareil afin que le consommateur soit informé de l'ensemble des mesures techniques ainsi que des restrictions d'usages spécifiques et leurs conséquences pour les usages du propriétaire.  
Le seul moyen de « compenser »  le piétinement de cette liberté  reste le renforcement de l'information due au consommateur. La Free Software Foundation Europe (FSFE) demande à ce titre qu'il y ait une obligation d'information préalable à l'achat d'un appareil afin que le consommateur soit informé de l'ensemble des mesures techniques ainsi que des restrictions d'usages spécifiques et leurs conséquences pour les usages du propriétaire.  


À ce titre la France semble faire un premier pas dans ce sens. L'actuel projet de loi relatif à la consommation <ref> http://www.assemblee-nationale.fr/14/projets/pl1015.asp </ref>, prévoit de renforcer l'information due au consommateur, renforçant par la même occasion sa liberté d'usage des biens. En effet, en guise de transposition de l'article 5 de la directive 2011/83/UE du 25 octobre 20113 relative aux droits des consommateurs, l'article 4 du projet prévoit d'ajouter à l'article L 111-1 du code de la consommation relatif aux informations générales précontractuelles plusieurs obligations d'informations nouvelles concernant les mesures techniques de protection ainsi que l'interopérabilité. Cette nouvelle obligation d'information pourrait ainsi à l'avenir contrainte les fabricants à mentionner la présence du secure boot au sein des machines vendues. Par ailleurs,le projet de loi prévoit également la  mise en place d'une class action française. Une class action qui pourrait  dissuader à l'avenir les professionnels au profit d'une meilleure protection du consommateur.
À ce titre la France semble faire un premier pas dans ce sens. L'actuel projet de loi relatif à la consommation <ref> http://www.assemblee-nationale.fr/14/projets/pl1015.asp </ref>, prévoit de renforcer l'information due au consommateur, renforçant par la même occasion sa liberté d'usage des biens. En effet, en guise de transposition de l'article 5 de la directive 2011/83/UE du 25 octobre 20113 relative aux droits des consommateurs, l'article 4 du projet prévoit d'ajouter à l'article L 111-1 du code de la consommation , relatif aux informations générales précontractuelles, plusieurs obligations d'informations nouvelles concernant les mesures techniques de protection ainsi que l'interopérabilité. Cette nouvelle obligation d'information pourrait ainsi à l'avenir contrainte les fabricants à mentionner la présence du secure boot au sein des machines vendues. Par ailleurs,le projet de loi prévoit également la  mise en place d'une class action <ref> Action de groupe: une procédure par laquelle une association ou un groupe d'individus saisit seul un juge pour le compte d'un groupe d'individus qui ont le même litige </ref> française. Une class action qui pourrait  dissuader à l'avenir les professionnels au profit d'une meilleure protection du consommateur.


== La Tivoïsation du monde — la tentative d'éviction des libertés du logiciel ==
== La Tivoïsation du monde — la tentative d'éviction des libertés du logiciel ==

Version du 22 mai 2013 à 09:33


Ambox warning red construction.png
/!\ Travail en cours /!\

Cette page présente un texte de synthèse en cours de réalisation.

Si vous souhaitez participer, n'hésitez pas à laisser votre avis sur la page de discussion en suivant au mieux ces recommandations.


Introduction

L'expression « informatique de confiance » regroupe des dispositifs de contrôle d'usage qui s'appliquent à l'ensemble de votre équipement numérique contre votre volonté. L'informatique déloyale peut prendre la forme d'une puce électronique ou d'un logiciel qui identifie les composants et les programmes installés sur la machine ; elle peut aussi limiter/interdire la mise en place de tout matériel ou l'utilisation de tout logiciel.

Là où le DRM contrôle l'usage qui peut être fait d'un contenu ou d'un logiciel verrouillé donné, l'informatique déloyale contrôle indépendamment de votre volonté tous les usages qui peuvent être fait avec un de vos équipements (ordinateur, mobile, tablette graphique, assistant numérique, etc.).

L'informatique dite de confiance est vendue par ses promoteurs comme un moyen de sécurisation, par le contrôle à chaque démarrage de l'ensemble des processus et/ou matériels présents. Cela permet la neutralisation de ce qui n'est pas considéré comme étant « de confiance ».

Ce sont les conditions de cette confiance qui posent problème : dans le cadre de l'informatique déloyale, ce n'est plus à l'utilisateur qu'on décide de faire confiance, mais à une entreprise privée, un « tiers de confiance ». Ce tiers obtient ainsi le contrôle final de l'ordinateur sans que l'utilisateur n'ait aucun recours. Tout se passe comme si un logiciel de contrôle parental était installé d'autorité sur chaque machine et que les utilisateurs n'étaient plus que les « enfants » : l'administrateur, qui décide de ce qu'il est possible de faire, serait alors ce « tiers de confiance » sur lequel vous n'avez aucun contrôle et dont vous ignorez les motivations et parfois jusqu'à l'existence.

Dans la mesure où l'approbation de ce tiers « de confiance » est nécessaire pour faire fonctionner tout programme, les logiciels libres ne peuvent s'inscrire dans le cadre de l'informatique de confiance, autant pour des raisons qui tiennent à la nature même du logiciel libre - qui, par définition, donne aux utilisateurs le contrôle complet sur leur matériel et logiciel - que par le refus des acteurs de l'informatique de confiance de voir le logiciel libre intégré dans cette logique[1].

Définition

Le nom « informatique de confiance » vient du « Trusted Computing Group »[2] (groupe de l'informatique de confiance), un consortium d'entreprises qui souhaite développer les moyens de "sécurisation" (en réalité, de contrôle d'usage) des équipements numériques. Dans la mesure où il s'agit d'initiatives privées, il n'y a donc pas de cadre légal ou de définition juridique précise, le concept pouvant inclure de nouveaux processus toujours plus intrusifs.

De manière générale, le terme d'informatique « de confiance » désigne aujourd'hui de nombreux projets, parallèles et/ou concurrents, qui cherchent à étendre le contrôle d'usage en direction du matériel[3]. Les plus connus sont Palladium, devenu NGSCB (« Next Generation Secure Computing Base » Base d'information sécurisée de nouvelle génération) et TCG (Trusted Computing Group, ex TCPA pour « Trusted Computing Platform Alliance », Plateforme d'Alliance de l'informatique de confiance).

L'origine de l'informatique déloyale

Le « Trusted Computing Plateform Alliance »

Depuis, plus d'une décennie maintenant, les plus importants fournisseurs et constructeurs de matériels informatiques et de logiciels pour PC s'efforcent de construire « une informatique de confiance » En 1999 émerge le consortium d'entreprises « Trusted computing plateform alliance » ( puis rebaptisée à partir de 2003 » Trusted Computing Group » TPG ) qui sera à l'origine d'une nouvelle industrie visant à sécuriser l'informatique, mais sécuriser pour qui ? L'origine du projet en dit long sur sa raison d'être, il s'agit d'une alliance d'entreprises informatiques parmi lesquelles se retrouvent Compaq, HP, IBM, Intel, Microsoft, AMD, etc. afin de bâtir une informatique dite de « confiance » dont le principe de base repose sur une mesure technique à savoir assigner une signature à chaque objet informatique et déléguer par la suite à un « tiers de confiance » le soin de vérifier si l’objet manipulé est autorisé à être utilisé sur un système informatique donné. Mais conscient des enjeux concurrentiels, le projet TCPA a publié des spécifications « open source » c'est-à-dire libres de tout son système, disponible en téléchargement sur son site web[3]

Le projet Palladium : une technologie consubstantielle à l'architecture Microsoft

En 2002, Microsoft s'empare du projet initial pour en faire un élément consubstantiel à son architecture et développe sa propre technologie sous le nom de Palladium qui deviendra en 2003 « Next-Generation Secure Computing Base » ( NGSCB) littéralement « base d'information sécurisée de nouvelle génération ».

Officiellement, selon Microsoft l'objectif du déploiement d'un tel dispositif technique est de résoudre l'ensemble des problèmes de sécurités informatiques «  et de créer des applications distribuées d'un type nouveau où chaque composant puisse faire confiance aux autres parties du système à savoir logicielles ou matérielles » [4]. La NGSCB permet de sécuriser l'ensemble du système contre les virus et autres malwares dès lors le concept reste le même. Mais, l’usage fait de la technologie a perdu chez Microsoft toute notion de transparence. Et pour cause, le décalage entre les déclarations et les faits,peut laisser perplexes. Au moment du lancement du projet et face aux craintes de nombreux acteurs dont le monde du logiciel libre, Microsoft a souhaité rassurer en déclarant que le dispositif technique matériel du projet offrirait une spécification publique et qu’ainsi un acteur du logiciel libre tel que le noyau Linux, par exemple, pourra accéder à la technologie et fonctionner ainsi sur le matériel implémenté. Ceci étant, il n’existe à l'heure d'aujourd'hui, aucune certitude sur la question. Par ailleurs, Microsoft dispose d’un grand nombre de brevets sur l’utilisation de cette technologie et à ce jour Microsoft ne s’est pas engagé à la mise en place de licences raisonnables et non discriminatoires de ces brevets, dès lors Microsoft pourrait interdire l’accès aux fonctions de la technologie en question à tous concurrents, comme le noyau Linux qui gagne de plus en plus de part de marché.

Aussi d'un point de vue technique, Microsoft va encore plus loin que le projet initial. En effet, NGSCB utilise extensivement le processeur cryptographique connu sous le nom de Trusted Plateform Module (TPM) ou encore surnommé puce Fritz [5].

Les risques de l'informatique déloyale

L'impact de l'informatique déloyale est très vaste, certaines formes sont déjà en place, tandis que d'autres représentent plutôt des menaces potentielles.

Ainsi, les dangers suivants sont identifiés :

  • l'utilisateur perd le contrôle de sa propre machine. Il se retrouve dans l'obligation de se conformer aux exigences du tiers dit « de confiance » ;
  • les conditions d'utilisation du matériel peuvent être modifiées a posteriori et sans aucun recours possible[6] ;
  • malgré son but affiché de sécurité privée, l'informatique déloyale sert d'abord à mettre en place des dispositifs de contrôle d'usage, notamment pour renforcer les DRM mis en place par les majors de l'industrie du divertissement ;
  • elle interdit aux utilisateurs de choisir leurs logiciels ou de désactiver des mesures de contrôle d'usage, et leur fait encourir un risque de blocage de la machine en cas de tentative de désactivation[7] ;
  • elle exclut les produits concurrents sans possibilité de recours, et notamment tout Logiciel Libre, empêchant ainsi l'utilisation de toute alternative libre.

L'informatique déloyale s'inscrit de plus dans une logique qui peut inclure :

  • la perte du contrôle de leurs propres données par les utilisateurs et le risque en cas de défaillance technique de perdre toutes ses données irrévocablement ;
  • la possibilité pour une entreprise d'entrer dans la vie privée des utilisateurs, voire d'interdire l'anonymat.

Quand la technique se retourne contre l'utilisateur

La restriction des droits de l'utilisateur ou la perte de contrôle de son propre matériel

Le premier danger de l'informatique déloyale est la perte du contrôle de sa propre machine et donc une régression de la liberté primaire du consommateur de pouvoir faire l'usage qu'il souhaite de son propre matériel. Les constructeurs affirment actuellement qu'il y a une possibilité de contournement[8] des mesures mises en place, et que l'utilisateur pourra faire fonctionner un programme affiché comme n'étant pas de confiance. Mais rien ne garantit que ces possibilités seront maintenues dans le temps, d'autant que l'idée de publier les spécifications techniques est rejetée en bloc par les entreprises commercialisant ces verrous. De plus, une telle attitude est aussi inacceptable ethniquement : elle revient à demander aux utilisateurs de se mettre volontairement dans une situation de dépendance vis-à-vis de ses « fournisseurs », sous prétexte qu'ils sont pour l'instant de bonne volonté. Ainsi, force est de constater que l'informatique dite de confiance est un leurre, qui sous-couvert d'offrir un environnement sécurisé à l'utilisateur, en contrôle les usages. En d'autres termes , à travers la technologie secure boot , les fabricants ont désormais en main les moyens techniques d'empêcher les usages qu'ils n'avaient pas prévus. Et pour cause, le démarrage sécurisé s'étend du processus primaire de démarrage et perdure jusqu'au noyau du système d'exploitation. Il innerve ainsi l'ensemble de l'infrastructure de la machine et non seulement le démarrage tel que ce système se présente. Ainsi la vérification des signatures s'enclenche pour le moindre logiciel s'exécutant sur l'ordinateur. Ces dangers pour le consommateur sont tout aussi valables pour les auteurs/éditeurs de logiciels.L'informatique déloyale ne permet pas l'intéropérabilité et donc la possibilité de proposer des programmes qui puissent fonctionner avec le système verrouillé; en d'autres termes, il devient alors nécessaire de faire de la rétro-ingéniérie pour proposer de nouveaux programmes. Bien sûr, certains continueront d'étudier le matériel et le logiciel pour comprendre leur fonctionnement par ingénierie inverse. Mais étant donné la complexité de ce système ainsi que les coûts de telles études (le premier étant l'achat du matériel), ces études seront de moins en moins nombreuses, de plus en plus coûteuses et décourageront un grand nombre d'utilisateurs qui ne souhaitaient pourtant pas un tel contrôle. La liberté d'usage serait alors limitée à un très petit nombre, créant ainsi des discriminations entre les experts du domaine et le grand public.

Pire encore, dans le cas d'une machine connectée à internet, cette connexion permet aux fabricants de modifier les restrictions d'usages à tout moment, à l'insu même de l'utilisateur, par exemple, sous la forme d'une mise à jour qu'il accepte sans véritablement savoir ce qu'elle renferme précisément. Le but d'une telle restriction par les fabricants est bien entendu purement économique, il s'agit de brider l'outil pour imposer derrière la vente d'un matériel complémentaire de la même marque.

Mais pourquoi le consommateur devrait il remettre le droit d'user de son bien au bon vouloir d'un tiers, quand bien même serait-il de « confiance » ? Le seul qui devrait légitimement avoir la liberté du contrôle de sa machine est le consommateur, ce qui suppose qu'il soit seul à décider de la création, de l'octroi et de la suppression des clés cryptographiques, des certificats et des signatures numériques. Or le système actuel que Microsoft propose ne satisfait pas à ses libertés primaires. Microsoft laisse, certes, le consommateur libre de désactiver le démarrage sécurisé mais selon les dires de Microsoft même, cette desactivation se fait « à vos propres risques » [4]. Ainsi il est à craindre que cette faculté ne soit que « poudre aux yeux ». En effet d'une part , cette faculté n'existe que sur les PC et ne couvre donc pas l'ensemble des marchés affectés par le système de verrouillage. Puis, d'autre part d'un point de vue pratique, la faculté de désactiver le secure boot n'est pas à la portée de tous, même des informaticiens avertis ont démontré par leurs expériences qu'il n'était pas si aisé de le désactiver et encore moins d'installer des solutions libres au sein des machines implémentés de la technologie. Pire encore, des retours d'expériences démontrent qu'il est impossible de réaliser un dual-boot avec Linux c'est-à-dire de disposer sur sa machine de deux systèmes d'exploitations, ce qui était possible avant cette nouvelle technologie. Ainsi force est de constater que cette technologie semble brider l'essence même de l'ordinateur personnel qui offre la liberté de tous les usages, pour en faire un ordinateur verrouillé certifié 100 % Windows.

En 2006, le député Pierre LASBORDES qui fut chargé par le Premier ministre d'une étude sur le renforcement de la sécurité des systèmes d'information avait pourtant rendu un rapport pointant du doigt les dangers du secure booot, il énonçait alors que « pour certains ces limitations d'usage sont justifiées par le développement du commerce électronique et la gestion sûre des droits de propriété intellectuelle. Mais en restreignant les droits des utilisateurs, NGSCB (Next Generation Secure Computing Base), donne un droit de regard aux constructeurs de matériels et de logiciels, de l'usage fait des ordinateurs personnels. Cette émergence d'une informatique de confiance conduirait un nombre très limité de sociétés à imposer leur modèle de sécurité à la planète, en autorisant ou non, par la délivrance de certificats numériques, des applications à s'exécuter sur des PC donnés. Il en résulterait une mise en cause de l'autonomie des individus et des organisations (restriction des droits de l'utilisateur sur sa propre machine). Cela constitue une menace évidente à la souveraineté des États » [9].

Dissimulation des objectifs et absence de choix : comment l'informatique déloyale se fait accepter auprès du grand public

Face aux multiples dangers que représente l'informatique déloyale, se pose la question de l'acceptation par les consommateurs de telles restrictions de libertés : pourquoi et comment de telles mesures pourraient-elles être acceptées ?

La première raison s'approche de la vente liée : si la totalité des machines sur le marché intégraient ces verrous, les utilisateurs pourraient ne plus avoir le choix.

De plus, certains programmes ou fichiers pourraient n'être ouverts que par des logiciels répondant aux normes de contrôle de l'informatique déloyale. En d'autres termes, vous ne pourriez plus jouer à votre jeu préféré, ou même lire des DVD ou des albums musicaux distribués par certaines compagnies, si vous ne possédez pas d'ordinateur tatoué ; peut-être que vous seriez contraints de choisir un éditeur particulier pour tous les contenus numériques que vous voulez lire, ou vous ne pourriez plus communiquer avec vos proches utilisant un équipement différent. Difficile pour beaucoup de résister...

Pire encore, certains utilisateurs se satisferaient sans doute d'être soumis à ces techniques au nom de la sécurité. Puisque tous les processus sont vérifiés au préalable, la présence de logiciels malveillants serait limitée par la mise en place d'une liste pré-établie. Plutôt que d'interdire à posteriori ce qui est jugé nocif, l'équipement ne pourra plus faire que ce qui est préalablement autorisé.

Ces régressions des libertés au nom d'une sécurité largement illusoire (des moyens de contournement seront sans doute créés par la suite) sont inacceptables et mettent en danger l'existence même d'un choix libre concernant les programmes et logiciels. De telles mesures pourraient porter atteinte à l'ensemble du logiciel libre, par exemple par la mise en place d'un catalogue de programmes émanant d'un seul groupe d'entreprises et qui interdirait tout autre programme[10].

Des réformes à venir en faveur d'une meilleure transparence ?

Le seul moyen de « compenser » le piétinement de cette liberté reste le renforcement de l'information due au consommateur. La Free Software Foundation Europe (FSFE) demande à ce titre qu'il y ait une obligation d'information préalable à l'achat d'un appareil afin que le consommateur soit informé de l'ensemble des mesures techniques ainsi que des restrictions d'usages spécifiques et leurs conséquences pour les usages du propriétaire.

À ce titre la France semble faire un premier pas dans ce sens. L'actuel projet de loi relatif à la consommation [11], prévoit de renforcer l'information due au consommateur, renforçant par la même occasion sa liberté d'usage des biens. En effet, en guise de transposition de l'article 5 de la directive 2011/83/UE du 25 octobre 20113 relative aux droits des consommateurs, l'article 4 du projet prévoit d'ajouter à l'article L 111-1 du code de la consommation , relatif aux informations générales précontractuelles, plusieurs obligations d'informations nouvelles concernant les mesures techniques de protection ainsi que l'interopérabilité. Cette nouvelle obligation d'information pourrait ainsi à l'avenir contrainte les fabricants à mentionner la présence du secure boot au sein des machines vendues. Par ailleurs,le projet de loi prévoit également la mise en place d'une class action [12] française. Une class action qui pourrait dissuader à l'avenir les professionnels au profit d'une meilleure protection du consommateur.

La Tivoïsation du monde — la tentative d'éviction des libertés du logiciel

Définition de la tivoïsation

L'expression de « tivoïsation » vient de l'entreprise américaine Tivo, un des plus gros constructeurs de magnétoscopes numériques. Ces magnétoscopes reposent sur l'utilisation de logiciels libres sous licence GNU GPL. Mais même si les sources sont disponibles, il est impossible pour les utilisateurs de modifier le programme embarqué dans ces magnétoscopes pour en améliorer les usages ; le matériel contrôle en effet que le logiciel correspond bien à celui qui a été validé par la firme, par une signature numérique. Les utilisateurs ne peuvent donc pas utiliser leur logiciel modifié. En d'autres termes, c'est le matériel qui empêche l'exercice de la liberté sur le logiciel. La tivoïsation est donc un néologisme, qui désigne l'utilisation de logiciels libres sur un matériel verrouillé[13].

Que les logiciels soient libres ou non n'a plus aucune importance : quelles que soient leurs conditions de licence, la mise en place d'un tel contrôle réduit à néant une des quatre libertés.

La GPL v3, réponse à la tivoïsation

Pour écarter les dangers de la tivoïsation, la GPL[14] v3[15] a été écrite en posant comme principe que si la mise en place de DRM n'est pas interdite en tant que telle, il doit être possible d'enlever toute fonctionnalité non souhaitée. En d'autres termes, plutôt que d'interdire les mesures de contrôle d'usage, elle s'assure de la possibilité pour les utilisateurs de contourner de telles mesures. Il s'agit donc de maintenir les libertés de tous les utilisateurs : ceux qui souhaitent garder l'environnement limité et contrôlé peuvent le faire, mais ceux qui souhaitent s'en affranchir ne sont plus empêchés de le faire. C'est, pour reprendre les termes des rédacteurs de la licence, le moyen d'éviter que « le droit de modifier votre logiciel [ne devienne] caduc si aucun de vos ordinateurs ne vous le permet »[16].

Cela permet donc de garantir aux utilisateurs d'avoir le choix, ce que l'informatique déloyale empêche.


Un exemple de tivoïsation : le modèle de Symbian

L'OS développé par Symbian exige ainsi que tous les programmes soient signés par l'entreprise pour pouvoir fonctionner sur les appareils vendus sous sa marque. Si les informations (code source) sont effectivement disponibles, cela empêche d'utiliser l'appareil pour faire ce que l'on souhaite dessus, y compris d'installer sa propre version.

Symbian OS est pourtant sous licence libre : mais celle-ci perd toute valeur, car les appareils sont toujours bloqués et exigent d'utiliser exclusivement les programmes proposés par l'entreprise. Pour pouvoir faire des modifications, il faut ainsi demander la permission à Symbian, qui propose des régimes plus ou moins restrictifs selon le domaine concerné. Cette demande d'autorisation est payante, et surtout peut être limitée par Symbian à la modification du code sur un seul téléphone précis (identification par numéro IMEI)[17]. Ainsi, la licence libre du système d'exploitation perd toute pertinence : la liberté n'est plus que théorique et ne peut plus être mise en pratique.


Vers un environnement entièrement contrôlé ?

Le modèle intégré d'Apple

Cette absence de choix se retrouve aussi dans le modèle économique d'Apple et dans sa stratégie d'enfermement de ses clients : les matériels Apple ne peuvent être utilisés qu'avec d'autres matériels et logiciels approuvés par Apple. Toute alternative est explicitement exclue par l'entreprise.

Ainsi, le dispositif de contrôle d'usage d'Apple vérifie chaque programme installé sur les machines, iPhone ou iPad. Chaque logiciel doit être préalablement signé par une clé de chiffrement d'Apple. À chaque installation, l'appareil vérifie auprès d'Apple si la signature est valide et, si ce n'est pas le cas ou que la signature est illisible, il refuse purement et simplement d'installer le programme. C'est également le cas si le programme a été modifié de quelque manière que ce soit. De plus, la signature est liée à un appareil précis, ce qui empêche tout partage du programme. Pire encore, Apple exige que tous les programmes soient distribués par l'Appstore pour les signer, et interdit donc explicitement tout marchand alternatif. Ce que souhaite l'auteur du programme (comme la licence sous laquelle il souhaite le distribuer) n'a plus aucune importance : pour distribuer son produit, y compris un logiciel libre, il doit obtenir une autorisation d'Apple, ce qui inclut l'obligation de se soumettre aux conditions de licences imposées par cette entreprise.

Les fonctionnalités des appareils sont donc intentionnellement limitées par le constructeur : c'est pour cela qu'a été lancée la campagne « defective by design[18] » par la Free Software Foundation, qui démontre à quel point l'iPad est une régression intentionnelle par rapport à tout ce que l'informatique offre comme possibilités aujourd'hui [19].

Certes, les possibilités de contournement existent, comme le « jailbreak »[20] de l'iPhone d'Apple. Mais elles ne sont pas autorisées par l'entreprise, entraînent la perte de la garantie, sont difficiles à mettre en œuvre et n'offrent aucune certitude quant à leur pérennité dans le temps. Surtout, ce sont des solutions de contournement qui ne changent rien à l'existence du problème.

eFuse[21], une altération du matériel en cas de contournement du contrôle d'usage

Apple, s'il est caractéristique, n'en reste pas moins un exemple parmi d'autres. La controverse autour du Droid X de Motorola en est d'ailleurs un bon exemple : ce smartphone intègre une puce eFuse qui permet d’empêcher de façon permanente l'allumage du mobile si les programmes installés ne correspondent pas à ce qui a été approuvé par Motorola. Ainsi, au nom de la lutte contre les logiciels malveillants, toute tentative de modification de programme qui ne serait pas approuvée par Motorola pourrait donc potentiellement entrainer l'impossibilité définitive d'utiliser l'appareil[22].

Globalement, ce type de mesure est paradoxal : il s'agit d'ajouter des technologies pour pouvoir faire moins qu'auparavant avec le même type d'appareil. La puce est ajoutée uniquement pour empêcher certains usages, sans apporter quoi que ce soit à l'utilisateur; Elle consomme de l'énergie et représente un coût inutile.

L'informatique déloyale ou la consécration des monopoles

L'informatique déloyale se base donc sur des « tiers de confiance », en réalité des entreprises privées qui n'ont à cœur que leurs propres intérêts, qui imposent ensuite leur desiderata aux développeurs et éditeurs de logiciels. Puisque les programmes ne peuvent fonctionner sans avoir été approuvés par le « tiers de confiance  », celui-ci peut imposer toutes les conditions qu'il souhaite : financières, de licences, etc. Concrètement, quelques acteurs déjà en situation monopolistique pourraient ainsi bloquer toute alternative et donc assurer la permanence de leur monopole.

Le trou analogique, vendre la sécurité pour imposer le contrôle d'usage

L'informatique déloyale s'inscrit ainsi dans une logique où le « tiers de confiance » contrôle tout ce qui est fait avec les informations, en empêchant toute modification ou copie des données manipulées. Un tel mécanisme est cependant illusoire à mettre en œuvre : pour empêcher toute copie, il faudrait que l'information circule de manière chiffrée et non copiable sur l'ensemble de son parcours, depuis le support numérique jusqu'au cerveau de la personne qui lit l'œuvre. Cela est bien évidemment absurde : à partir du moment où l'œuvre est lue, il est possible d'utiliser un appareil d'enregistrement pour la copier. Par exemple, même si un DVD est protégé par un système de verrouillage complexe, cela n'empêchera jamais quelqu'un de filmer l'écran et d'enregistrer le son, et donc de réaliser une copie. C'est le paradoxe des tentatives de menottage numérique auxquelles on assiste de plus en plus souvent aujourd'hui : pour empêcher toute copie, il faut empêcher la lecture. Mais si on empêche la lecture, il n'y a plus d'œuvre à acheter, puisqu'il n'y a plus rien à lire !

Au-delà de cette impossibilité logique, le mode de fonctionnement de la plupart des ordinateurs rend également tout verrouillage total impossible : pour limiter les "trous" dans lesquels l'information circule en clair et pourrait être copiée, il faudrait que le déchiffrement se fasse au plus près des interfaces de sortie, par exemple dans les cartes sons ou vidéos. L'ensemble de ces dernières devraient donc intégrer les composants nécessaires au déchiffrement. Si c'est la raison pour laquelle des regroupements comme le TCG ont été créés, la collaboration entre les différents acteurs est difficile dans la pratique aujourd'hui.

Les enjeux concurrentiels : vers un verrouillage progressif du marché ?

La tentative de contrôle du marché des technologies de l'information ?

Le monopoliste du marché informatique, Microsoft a de tout temps eu une place hégémonique sur le marché du secteur des technologies de l'information, lui offrant toutes les commodités rêvées pour son épanouissement. Dès lors cet acteur à tout intérêt à mettre l'ensemble des moyens nécessaires afin d'asseoir cette position: du loobying auprès de l'éducation nationale pour ainsi prendre le consommateur au berceau, jusqu'aux mesures techniques, aujourd'hui, pour clôturer sa stratégie. Quels sont les intérêts d'une telle position, tant convoitée ?

Théoriquement, la place de leadership sur le marché ou encore mieux, de « monopoliste » offre un grand nombre d'avantages. Premièrement quant au pouvoir non négligeable d'agir sur la structure même du prix. En effet, nul ne peut ignorer la règle économique élémentaire de l'offre et de la demande c'est à dire que le prix est le résultat de la rencontre de l'offre et de la demande. Or appliqué au monopole, celle-ci débouche sur le constat suivant :une multitude de demandeur face à un offreur unique. L'offreur unique est alors roi,libre alors d'imposer le prix qu'il souhaite, il est alors « price maker » [23]. Cette situation s'oppose à celle qui existerait dans le cadre d'une concurrence pure et parfaite où l'atomicité de l'offre et de la demande évite qu'un offreur du marché soit en mesure d'influence sa structure et le prix résulte ainsi de la rencontre de la multitude d'offre et de demande sur le marché, chaque offreur est alors « price taker » [24]. Tout en sachant que la demande est une fonction décroissante du prix. En l'espèce, c'est-à dire appliqué au cas de Microsoft, on observe que le prix des licences c'est-à dire le droit d'utiliser les produits Microsoft, n'ont eu de cesse de croître. La première version de Windows connue sous le nom de Windows 1.01, voit le jour le 20 novembre 1985 et commercialisé à 99 dollars. Aujourd'hui, la dernière version commercialisé à partir du 26 octobre 2012 sous le nom de Windows 8 est disponible pour un prix moyen de 119,99 euros et 279,99 euros pour la version professionnelle. Autrement dit , entre 1985 et 2012 le prix de de la licence n'a pas fléchi mais à au contraire augmenté. Alors même que normalement le coût des technologies classiquement diminuent avec le temps et que dès lors le prix de vente devraient, dans un idéal de concurrence pure et parfaite, baisser face à la concurrence et à la démocratisation du produit. La seule exception concerne l'éducation nationale où les coûts de licence sont minimes voir dérisoires, qu'on pourrait assimiler à des « prix prédateurs » c'est à dire un coût a priori inférieur au coût de production marginal. Or dans le cadre d'un bien immatériel le coût de production marginal est quasi nul, ce qui permet à Microsoft, d'user et d'abuser de telle campagne de prix. En l'occurrence, il s'agit d'une offre de licence spécifique à l'éducation nationale, dont on peut comprendre l'intérêt. Au delà de l'idée d'accompagner le développement du numérique à l'école de manière totalement désintéressé , on peut noter que l'avantage pour Microsoft est bien entendu de permettre l'apprentissage des outils Microsoft dans les collèges et les lycées de la planète entière pour mieux permettre l'accoutumance des consommateurs voire une addiction aux produits Microsoft dès le plus jeunes âges afin d'assurer la pérennité de l'éditeur unique au fil des générations. Cela témoigne bien d'une emprise si ce n'est d'une maîtrise quasi parfaite du marché par Microsoft. Au delà même des préoccupations économique et concurrentiels, l'enjeu est celui de la préservation de la démocratie même. Le secteur des technologies de l'information est un secteur stratégique à l'ère d'un monde ultra connecté. Ainsi la main mise d'un seul acteur, quel qui soit sur l'ensemble de ce secteur est plus que dangereux. Les technologies de l'information ont pénétré l'ensemble des foyers de la planète, ou du moins le développement de tout pays montre ce phénomène. L'ensemble des consommateurs du monde utilisent au quotidien ces technologies de l'information (téléphonie mobile, email, réseaux sociaux, traitement de texte pour planifier son quotidien …). Ces profils de consommation constitue une mine d'or qui attise l'intérêt des professionnels du monde entier , on a pu l'observer ces dernières années par le développement du marketing comportemental. Les entreprises elles mêmes investissent des sommes astronomiques afin de développer leurs réseaux informatique sur lequel repose toutes leurs activités. La technologie est aujourd'hui plus que jamais devenu « le nerf de la guerre ». Un marché à conquérir et pour Microsoft un marché à conserver. Dans cette optique, le secure boot n'est qu'une illustration de plus, de sa stratégie. Pour avoir une illustration concrète de celle-ci, nous pouvons prendre l'exemple emblématique de Netscape Netscape était le navigateur web qui dominait le marché dans les années 1990, son activé était pour le moins pérenne et rien ne présager sa sortie du marché. Reste que l'arrivée d'Internet explorer sur le marché autrement dit le navigateur web propre de Microsoft a permis l'éviction de Netscape du marché. Comment ? Microsoft aurait convaincu -ou imposer - à une grande parties des éditeurs du web de contenu que «  Exporer était devenu le standard, et qu'ils avaient donc intérêt à y adapter leur sites web » [25]. Quid de la véracité de ces propos ? Microsoft est il devenu un standard ? Un standard de fait, sûrement, mais quant est il légalement ? Il existe aucun standard obligatoire légalement. Mais une concurrence saine supposerait sûrement de se référer au standard ouvert définit à l'article 4 de la loi pour la confiance en l'économie numérique (LCEN), laquelle définit les standards ouverts comme « tout protocole de communication, d'interconnexion ou d'échange et tout format de données interopérable et dont les spécifications techniques sont publiques et sans restriction d'accès ni de mise en œuvre. ». Or le standard de fait que représente Microsoft est loin de se plier à cette définition légale au service d'une concurrence saine sur le marché, le standard de Microsoft en serait même l'antithèse en personne. Windows ne respecte pas la normalisation des formats de document et impose ses propres formats fermés qui lui offre ainsi un contrôle sur le marché. Force est de constater que, « Microsoft entrave d'interopérabilité entre les systèmes, asséchant la concurrence et ralentissant l'innovation » [26]. Microsoft mise ainsi sur les effets de réseaux c'est à dire sur un mécanisme d'externalité positif économique qui met en évidence le fait que l'utilité d'un bien pour un utilisateur est fonction du nombre des autres utilisateurs de ce même bien. Et les effets de réseaux sont fondamentaux dans le cadre des nouvelles technologies de l'information et de la communication. En effet, concrètement, quel serait l'intérêt d'utiliser un format de traitement de texte que je serais seule à pouvoir ouvrir rendant ainsi impossible la communication du fichier à un tiers. Microsoft en imposant son format propriétaire à la planète entière misent clairement sur les effets de réseaux lui permettant d'éliminer sans mal les formats concurrents dont le format ouvert. Il ruine ainsi, consciemment d'interopérabilité pour imposer une d'interopérabilité « Microsoftienne ». Et le pire étant qu'au fil des années cette idée a pénétré les habitus de l'ensemble des consommateurs persuadé que Microsoft constitue le standard et qu'il faut donc se procurer Microsoft. Un exemple frappant, est celui de l'accord cadre entre Microsoft et le Mnistère de la défense, pour justifier la passation sans mise en concurrence de ce marché, le ministre de la défense avançait l'argument de l'interopérabilité et l'existence du standard Microsoft. Est ce là un aveu d'échec au plus haut sommet de l'État ? Le rapport final du groupe de travail du ministère de la défense, réunissant des représentants de l'état-major des armées, la direction interarmées des réseaux d'infrastructure et des systèmes d'information, du secrétariat général de l'administration et de la délégation générale pour l'armement, a été amené à se pencher sur l'analyse de la valeur du projet de Contrat – cadre avec la Société Microsoft à la demande du cabinet du ministre de la défense. Et ce rapport pointe du doigt cette stratégie d'interopérabilité de la société, sous l'intitulé « 1.1.4 Interopérabilité et stratégie » on peut lire : «  Dans sa vision à 10 ans, la société Microsoft n'a aucune stratégie multi-plateforme (Office 2007 sur la distribution Linux par exemple). Elle aborde la question de l'intéropérabilité sous l'angle de la compatibilité avec ses propres produits. De par son poids sur le marché, la société considère qu'elle représente un standard de fait. Alors que les pouvoirs publics se sont dotés de moyens pour traiter de la question de l'interopérabilité au sein de l'administration française. Microsoft s'est crée son propre conseil national pour sonder les besoins de ses clients en matière d'interopérabilité. » [27] . L'interopérabilité est ainsi devenue une arme de marché procurant un avantage concurrentiel dangereux à un éditeur unique....

L'intérêt d'une libre concurrence sur le marché, vecteur de l'innovation

« La concurrence est l’idéal des économistes, mais les entreprises n’ont de cesse d’y échapper» ([28]. . L'ensemble des marchés liés au secteur informatique ont connu une croissance extraordinaire ces dernières décennies, ce qui naturellement attire de nouveaux acteurs sur le marché. Et pour stimuler la croissance et l'innovation dans ce secteur il ne fait nul doute qu'une concurrence saine doit régner au sein du marché. En effet, seule une concurrence saine et transparente sur le marché permet de stimuler la croissance et l'innovation, du fait que chaque acteur s'oblige alors à être d'avantage compétitif et performant. Une attitude guidée par l'intérêt personnel et égoïste de chaque homo œconomicus2 , dont l'agrégation permet de tirer vers le haut le marché, mais aussi l'innovation au profit du bien être du consommateur. Il s'agit là d'une illustration manichéenne de la théorie de « la main invisible » développé par Adam SMITH3 au 18 ème siècle, mais dont la véracité transcende les siècles pour rester pertinent encore aujourd'hui. Le marché des nouvelles technologies est une illustration d'autant plus ancrée dans cette logique, que l'innovation en est le cœur et le moteur. En effet la rapidité des évolutions technologiques font de ce marché un « laboratoire d'analyse » vivant. Notamment, parce que la concurrence monopolistique4 c'est à dire une concurrence qui s'exerce par la différenciation du produit sur le marché et donc qui passe nécessairement par l'innovation, y est particulièrement importante. Il s'agit même d'une stratégie majeure pour survivre sur ce marché. La différenciation du produit permet ainsi de créer au yeux du consommateur l'illusion d'un produit unique sur le marché et créer une addiction afin qu'il soit prêt à payer toujours plus cher pour ce produit et non un autre. Cette stratégie, consistant à aboutir au « suicide » d'un concurrent n'est pas forcément illégitime dès lors qu'elle résulte de la réussite d'une politique marketing et qu'il s'agit donc d'une position acquise sur le marché du seul fait de ses mérites. D'un point de vue économique, l'élimination des « canards boiteux » est même une nécessité à l'efficacité du marché au profit du bien être collectif. Cela renvoi notamment à la théorie de l'économiste Joseph Schumpeter, qui permettre d'établir l'existence d'une corrélation entre croissance, innovation et monopole. En effet, selon les partisans de cette théorie, la croissance économique serait guidée par la capacité d'une entreprise a obtenir des rentes de monopole obtenu grâce à son effort d'innovation. Notamment il explique ainsi, les périodes de croissance liées, toujours, selon lui à de grandes avancées technologiques et que seul le monopole offrant d'important profits positifs permet d'encourager cette innovation et donc d'aboutir à ce cercle vertueux. Cela étant dit, la théorie de Schumpeter souffre probablement d'une forte désuétude ou du moins semble trouver au sein du marché informatique son remède à travers le logiciel libre.

En effet, le marché qui nous intéresse ici, à savoir le marché informatique semble révéler tout le contraire. Le logiciel libre présente une philosophie particulière qui constitue sa plus grande force. D'une part, en terme de coût le logiciel libre présente un modèle économique particulier. En effet il repose sur un modèle de développement coopératif c'est-à-dire que chacun peut librement accéder, contribuer et utiliser ce logiciel. Ainsi «  la valeur ne se situe plus dans la culture du secret de la maîtrise d'un code, mais dans la capacité à communiquer, à construire et à fédérer une communauté, à recruter de nouveaux talents, puis à générer des besoins en services additionnels ». Ainsi le modèle économique est fondamentalement différent, notamment en ce que son modèle repose sur la valorisation de valeur ajouté et quitte ainsi la logique d'une économie de rente. Par ailleurs les biens immatériels présentent certaines spécificités majeures. D'un part en raison de l'existence d'un coût marginal de duplication quasi nul et d'autre part en raison du caractère non rival du bien, c'est à dire que « lorsque le bien est vendu, le vendeur le possède encore » [29].Enfin, sans oublier l'effet de levier que constitue l'internet pour sa diffusion. Ainsi par exemple, des petites PME telles que Adacore ou encore Mandriva ont réussi à innover et à obtenir des retours sur investissement colossaux, sans être en situation de monopole sur le marché. Ainsi Force est de constater qu'une compétitivité accrue sur le marché informatique est bien au contraire propice à l'innovation et par la même bien être des consommateurs. A ce titre l'avantage du logiciel libre est que les principes qu'il renferme assure sa pérennité notamment parce qu'il permet une totale indépendance vis à vis d'un quelconque éditeur unique. En effet le logiciel libre puisse en partie sa force dans l'indépendance et la forte maîtrise de son système. Par exemple les choix de composants logiciels peuvent se prendre sans aucune contrainte particulière par opposition au monde du logiciel propriétaire cadenassé par de nombreux droit de propriété intellectuelle. Or la technologie du secure boot n'est elle pas sur le point de remettre en cause cela ? Et donc mettre à mal le principe fondateur du logiciel libre en créant de facto une dépendance qui serait néfaste au marché et à l'innovation et enfermer le logiciel libre dans une spirale propriétaire où il est nécessaire d'acheter une clé d'accès. En d'autres termes n'y a t -il pas le risque d'aboutir à une innovation monochrome et donc sans véritable intérêt. Dès lors la reconnaissance méritocratique sur le marché d'un acteur doit pouvoir se concilier avec l'impératif de préserver une certaine concurrence tout de même. Le développement de cette concurrence constitue la condition sine qua non pour permettre au marché d'échapper à la domination d'un éditeur unique au service de la croissance et de l'innovation toujours.

L'éviction caractérisée des logiciels libres

L'éviction des logiciels et des systèmes d'exploitations libres est patente. En effet, si les mesures de sécurité ne sont pas en elles-mêmes contraires au logiciel libre, les modalités actuelles de sa mise en œuvre renferment des dangers inéluctables pour le développement du logiciel libre. La technologie est a priori neutre, mais l'usage qui en est fait ne l'est pas toujours. Cette nouvelle technologie qui a vocation à étendre ses tentacules à l'ensemble du marché informatique, porte potentiellement en germe d'importants dangers pour la libre concurrence et l'innovation. Et pour cause, à ce jour aucune information complémentaire n'a été donné sur ce « tiers de confiance » ni sur la manière dont il est désigné. Pire encore, à l'heure d'aujourd'hui, seul Microsoft, répond à cette appellation. Dès lors quid de sa neutralité, peut-il être à la fois régulateur privé et acteur du marché ? Ainsi, force est de constater, que de facto, un logiciel quelconque qui n'aurait pu obtenir au préalable une signature référencée chez le « tiers de confiance » comme étant habilité à un usage sur le matériel informatique sera purement et simplement rejeté et donc hors de portée du consommateur. N'y a t-il pas là une absurdité aberrante  ? Comment peut-on octroyer à une entreprise hégémonique sur le marché, les clés pour agréer ses propres concurrents ?

Les logiciels libres seront certainement confrontés à une seconde difficulté, en effet il sera probablement difficile d'obtenir une certification pour un logiciel dont les sources sont ouvertes et peuvent être modifiées librement.

Par ailleurs une barrière tarifaire doit également être souligné, les développeurs du Libre n'ont pas forcément les moyens ni la possibilité même de payer une certification. La lumière n'a pas encore été faite sur les conditions d'obtention d'une certification. Faut-il nécessairement avoir la personnalité morale ou encore s'inscrire dans un processus de commercialisation ? Dès lors quid des développeurs libristes passionnés qui se consacrent au développement de logiciel depuis un ordinateur personnel sans prétention aucune ? Auront-ils encore demain la possibilité de poursuivre cet hobby sans verrous ? Rien ne le garantit.

À ce jour, seuls deux éditeurs de logiciels libres ont cédé au « chantage » , il s'agit de Canonical et de Red Hat, qui ont d'ores et déjà payé pour obtenir une clé et permettre ainsi aux ordinateurs de pouvoir lancer leurs systèmes d'exploitations.

Pour le reste des solutions alternatives, celles-ci n'étant pas encore passés à la caisse, ces systèmes d'exploitations libres ne pourront pas démarrer en mode sécurisé. Et même un logiciel libre installé sur un système d'exploitation propriétaire certifié ne pourra pas démarrer dans le sous-système TCG / NGSCB de la machine. Ainsi l'existence même des logiciels libres sur le marché est gravement menacée, il va devenir rapidement impossible de faire quoique ce soit avec un logiciel libre, dès lors qui voudra d'un logiciel inutilisable ? C'est un scénario catastrophe qui présente d'importants dangers pour le logiciel libre par la remise en cause de son modèle économique et la remise en cause d'une concurrence saine sur le marché.

Enfin il n'est pas anodin de noter que le projet informatique de confiance coïncide avec l'émergence des premiers logiciels libres sur le marché notamment la première distribution de Gnu/Linux en 1992 qui est le logiciel libre au succès qu'on lui connaît. Dès lors n'y a-t-il pas là , en germe, une nouvelle stratégie d'éviction de la concurrence, en faveur du maintien d'une position monopolistique sur le marché  ?

Le secure boot dans le viseur

L'ultime consécration de l'informatique déloyale est connue sous le nom de « secure boot » chez Microsoft, littéralement « démarrage sécurisé » et prend le nom de « Trusted Boot » (littéralement « démarrage de confiance ») dans le projet initial du groupe TCPA. Par ce projet Microsoft est sans aucun doute sur le point de s'octroyer une mainmise stratégique au cœur de la machine, lui permettant de piloter l'ensemble du marché.

Analyse technique du secure boot : « des verrous invisibles»

Techniquement la mise sous tension d'une machine lance un processus de démarrage qui est préalable au lancement du système d'exploitation. En d'autres termes il s'agit du logiciel intermédiaire entre le micrologiciel aussi appelé Firmware et le système d'exploitation. Il a notamment pour objet de permettre à la machine de détecter l'ensemble des périphériques. Il est donc un élément essentiel de la machine . Et c'est justement ce programme de démarrage préalable essentiel au lancement de tout système d'exploitation mais aussi à la détection de tout périphérique, composant (etc.), qui est visé aujourd'hui par le projet secure boot. Microsoft a annoncé la mise en place du secure boot à partir de 2012 , plus précisément concomitamment à la commercialisation de Windows 8 lancée le 26 octobre 2012 et qui intègre bien évidemment le secure boot. Les constructeurs doivent désormais implémenter l'Unified Extensible Firmware Interface [30] (UEFI) secure boot qui succède au BIOS [31] , s'ils souhaitent obtenir une certification Windows 8 pour leurs appareils notamment pour pouvoir y mettre le logo «Compatible Windows 8 ».

Concrètement, le secure boot qu'exige Microsoft prend la forme d'un composant cryptographique matériel, qui a vocation à être implémenté au sein de tout type de matériel électronique ou informatique. Lors des premières versions de chez IBM la puce était soudée à la carte mère. Aujourd'hui Microsoft implémente les puces au sein des processeurs, donc au cœur même de la machine. La force de cette nouvelle technologie réside dans le fait qu'elle soit implémentée, ancrée, au cœur du matériel conçu pour résister à toutes les attaques extérieures L'objectif technique de cette nouvelle technologie est précisément d'empêcher le lancement de programme malveillant au démarrage ayant pour objet de désactiver les logiciels anti-programmes malveillants. Le secure boot, qui au sein de l'interface UEFI prend la forme d'une fonction, renferme ainsi la promesse d'une sécurité informatique renforcée. Et il s'agit , à juste titre, d'un moyen d'assurer une sécurisation dès le démarrage de la machine et contourner ainsi l'ingéniosité des nouveaux programmes malveillants qui s'attaquent directement à la machine au cours du chemin de démarrage en désactivant l'ensemble des logiciels ayant pour objets d'assurer la sécurité de la machine. Et pour ce faire, Microsoft à mis au cœur du secure boot un processus de certification numérique en cascade afin de s'assurer que seuls les programmes mais aussi les composants, signés et authentifiés, seront susceptibles de s'exécuter sur la machine. Cela suppose donc l'existence d'une base de donnée capable d'enregistrer l'ensemble des signatures numériques de l'UEFI, avant que l'élément signé puisse démarrer sur l'appareil informatique équipé du secure boot.

Cette base de donnée qui contient les éléments autorisés à être exécutés sur la machine repose donc sur une agrégation de certificats numériques. Un certificat numérique étant concrètement un fichier qui contient une paire de clé privé et de clé publique de chiffrement. En l'espèce, cette certification repose sur la technologie Authenticode et une infrastructure à clés publiques. Authenticode est une technologie Microsoft qui fait usage d'un chiffrement standard pour signer du code d'application avec des certificats numériques qui vérifient l'authenticité de l'éditeur du programme. Tandis que l'infrastructure à clés publiques désigne le processus permettant de gérer l'ensemble des certificats autrement dit de créer, gérer et révoquer les certificats en vue d'aboutir à un climat de confiance dans l'échange d'information. Parallèlement à cette base de donnée accueillant l'ensemble des clés des programmes « bienveillants », il existe une base de donnée contenant des bouts de codes issus de programme malveillants dont l'exécution sera bloquée par la fonction secure boot. Reste que cette dichotomie semble oublier - ou évincer – une troisième hypothèse qui n'est pas réellement prise en compte au cœur de ce mécanisme. Il s'agit des composants « bienveillants » mais non certifiés par Microsoft. Dans la quête d'une sécurisation croissante du système informatique ce mécanisme risque d'être préjudiciable à un ensemble de concurrent émergent. Un logiciel quelconque qui n'aurait pu obtenir au préalable une signature référencée chez le « tiers de confiance » comme étant habilité à un usage sur le matériel informatique sera purement et simplement rejeté et donc hors de portée du consommateur ce qui comme nous le verrons plus loin, peut poser d'importantes questions concurrentielles. Par ailleurs, la technologie NGSCB irait même plus loin en permettant de s'assurer que les fichiers enregistrés par une certaine application, ne puissent être lus ou modifiés que par cette même application ou par une autre application autorisée. Microsoft nomme ce système spécifique « Sealed Storage » littéralement « stockage scellé » on pourrait tout aussi bien appeler cela « verrouillage du marché ».

Analyse juridique du secure boot : les griefs de la technologie

Plusieurs arguments juridiques pourraient être invoqués dans le cadre d'un contentieux à venir et mettre ainsi à mal la légalité même du dispositif technique dit de sécurité.

Premièrement quant à l'article 101 du Traité de Fonctionnement de l'Union Européenne [32] relatif aux règles de concurrence. Force est de constater que le secure boot étant de facto contrôlé par Microsoft, il encourt le grief de l'article b) à savoir qu'il a pour effet de "limiter ou contrôler la production, les débouchés, le développement technique ou les investissements". Et pour cause, les concurrents ne sont pas à l'abri d'un refus discrétionnaire de la part de Microsoft. Ainsi la fameuse clé signée qu'il est nécessaire d'obtenir pour être reconnu par le secure boot et que Microsoft propose à la vente pour 99 dollars, pourrait très vite devenir la clé d'accès au marché dont Microsoft se ferait "douanier". Les dérives d'un tel système sont plus qu'inquiétant pour le marché.

Par ailleurs, le point d) du même article trouverait certainement à s'appliquer dans le cadre d'un contentieux. En effet Microsoft pour se défendre avance l'argument selon lequel le secure boot serait aisément désactivable. Reste que même l'expérience des plus avisés à ce niveau montre  que même en désactivant le secure boot sur les machines certifiées Microsoft, l'installation d'un système d'exploitation alternatif s'en trouve perturbé voir bloqué. Dès lors le grief pourrait être adressé aux fabricants de produits informatiques ayant implémentés le dispositif secure boot, "d'appliquer, à l'égard de partenaires commerciaux, des conditions inégales à des prestations  équivalentes  en leur infligeant de ce fait un désavantage dans la concurrence". Et ce désavantage est d'autant plus avéré, qu'au delà de la difficulté technique pour désactiver le secure boot et installer un système d'exploitation libre, il s'avère que concernant les appareils portables ( smartphone, tablettes etc) et donc les architectures ARM [33] il est impossible de désactiver le secure boot implémenté, la seule solution reste donc de "jailbreaker" son appareil mais il s'agit d'une pratique illégale et le consommateur perd dans ce cas le droit à la garantie du téléphone, ce qui peut dérouter plus d'un consommateur qui se résignera alors, contre son gré, au seul système qu'on lui impose.

Enfin le point e) du présent article peut également être invoqué, en effet celui-ci dénonce comme étant une pratique incompatible avec le marché intérieur le fait de "subordonner la conclusion de contrats à l'acceptation, par les partenaires, de prestations supplémentaires qui, par leur nature ou selon les usages commerciaux, n'ont pas de lien avec l'objet de ces contrats". Or la pratique de Microsoft tombe parfaitement sous le coup de cet article dans la mesure où Microsoft impose à l'ensemble des fabricants les plus éminents du marché d'implémenter le secure boot pour avoir le droit d'apposer le logo Microsoft sur les appareils vendus alors même qu'a priori il n'y a aucune nécessité à cela pour la commercialisation de leurs produits. Cela peut s'apparenter à du chantage pur et simple, notamment du fait de la position dominante de Microsoft face à laquelle les fabricants sont forcés de plier. Aussi cela s'inscrit dans la suite logique de la stratégie  Microsoft qui consiste a proposer la vente de ses logiciels aux fabricants à des prix dérisoires qu'on pourrait assimiler à des prix "prédateurs" qui conduisent depuis des décennies à des pratiques de ventes liées imposés au consommateur (pack ordinateur et logiciel Microsoft).

Nul ne peut ignorer la position dominante de Microsoft sur le marché en cause, puisque cet éditeur de logiciel hégémonique détient à lui seul 95 % des parts sur le marché du Pc depuis 20 ans [34]. Dès lors l'abus de position dominante n'est jamais bien loin.

La domination est pour ainsi dire, une situation de fait que le droit tente d'appréhender. C'est dans cette optique que la Cour de Justice des Communautés Européennes [35] définie cette situation factuelle par un standard jurisprudentiel. Ce standard a été déterminé à l'origine dans la décision United Brands rendu par la Cour de Justice de la Communauté Européenne (CJCE) le 14 février 1978 [36] , reprise par celle d’Hoffmann - La Roche rendu par la même cour le 13 février 1979 [37]. Dès lors ce standard jurisprudentiel [38] laisse place à des exemples diverses et variés d'abus potentiels qui peuvent inclure tant le refus de vendre, que des prix prédateurs ou encore la rupture abusive des relations commerciales.

Concernant Microsoft, la firme a déjà fait l'objet d'une condamnation par la Commission Européenne le 24 mars 2004 sur le fondement de l'ancien article 82 du Traité de la Communauté Européenne (TCE). En l'espèce une affaire dans laquelle Microsoft avait refusé de fournir à son concurrent Sun Microsystems, les informations nécessaires à l'interopérabilité de son système avec des systèmes concurrents et d'en autoriser l'utilisation aux fins du développement et de la distribution de systèmes d'exploitation pour serveur de groupe de travail. En d'autres termes Microsoft avait été alors condamnée pour l'usage de sa position dominante sur le marché afin de « limiter les choix des consommateurs sur certains marchés connexes de celui des systèmes d'exploitation des PC » [39] .

À la suite de cette affaire, la Commission a ouvert une procédure et menée une enquête plus générale sur les conditions de commercialisation de Windows 2000 par Microsoft. À cette occasion la société Microsoft a elle même reconnu qu'elle détenait une position dominante sur le marché de plus de 90 % à ce moment là.

La technologie Secure boot de Microsoft encourt potentiellement le même grief conformément à l'article 102 du TFUE. Premièrement quant au point b) de la disposition, comme nous l'avons démontré précédemment à travers l'identification des dangers pour le consommateur il ne fait nul doute que la technologie secure boot à pour conséquence d'opérer un tri discrétionnaire des systèmes d'exploitations. À ce titre, l'atteinte à la concurrence peut être corrélé d'une atteinte à l'innovation au détriment du consommateur. Notamment en raison du fait que l'arrivée de nouveaux concurrents à normalement pour effet de stimuler la concurrence, ce qui poussent dès lors les entreprises à investir dans la recherche et le développement pour survivre à la compétition. Or le secure boot empêche justement la concurrence de se développer, il freine donc l'innovation au préjudice du consommateur qui se trouve de facto privé des éventuelles innovations de solutions alternatives et du bien être social que ces innovations peuvent produire. Enfin les points c) et d) du présent article peuvent être invoqués pour les mêmes raisons que vu précédemment concernant les points d) et e) de l'article 101 du TFUE identiques.

Le risque d'une généralisation par la contamination des marchés dérivés

Une étude de terrain menée en 2006 [40] par Benoît Sibaud [41] révélait qu'en 2006 déjà, les modèles de pc professionnels étaient équipés de la puce TPM chez Sony, ASUS, Toshiba, HP Compaq, Lenovo, DELL, Fujitsu-Siemens et bien évidemment Apple dont tous les modèles sont équipés de cette technologie. Or quid de la transparence vis à vis des consommateurs ? L'étude révèle que les fabricants ne communiquent pas sur l'implémentation de cette technologie au sein de leurs machines ou alors présente la technologie sous un autre jour, notamment comme étant une mesure de protection des données personnelles de l'utilisateur.

Par ailleurs, force est de constater que du fait de la généralisation de l'outil informatique, de plus en plus de marchés sont de facto affectés. Il ne s'agit plus seulement du seul marché des systèmes d'exploitation pour PC mais sont également concernés les systèmes d'exploitation pour serveurs, smartphones, tablettes, etc. À l'avenir Microsoft pourrait étendre ce système à tout matériel informatique : par exemple le marché des tablettes tactiles que Microsoft entend bien conquérir dans un futur proche (sa part de marché est passée de 0 % au premier trimestre 2012 à 7,5 % au premier trimestre 2013 [42]).

Aussi d'autres acteurs du marché s'inspirent de ce projet pour créer leurs propres « verrous », par exemple la société Apple utilise un mécanisme similaire pour restreindre l'installation et l'utilisation de son système d'exploitation MAC OS X sur des machines à base de processeur INTEL dont elle assure la fabrication. Concrètement cela prend la forme d'une puce TPM fournie par Apple qui doit normalement être présente sur la carte mère pour que ce système d'exploitation y soit utilisable.

Enfin le plus inquiétant est qu'à terme le projet initial TCPA entretient des liaisons dangereuses avec la question des Digital Rights Management (DRM) ou « menottes numériques », ainsi il est à craindre que le fondement même de l'informatique de confiance est à terme de mettre en place des DRM à différent stade de la chaîne informatique pour contrôler les logiciels et les documents.

Références

  1. voir par exemple http://www.trustedcomputinggroup.org/resources/five_great_reasons_to_adopt_trusted_computing : "There are, of course, valid objections on the basis of that it is a closed chip, and although it could be implemented using Open Source software who is to say that there are no hidden backdoors in the implementation. However, a similar argument can be made for just about any computer system available, so if you can get past that mental block, here are five great reasons to get excited about Trusted Computing [...]"
  2. Voir par exemple leur site
  3. on étend donc les mesures de contrôle d'usage déjà existantes avec les DRM sur des œuvres données au contrôle de l'équipement : par exemple, une licence OEM Windows ne peut être valable que pour une carte mère et (parfois) un disque dur donnés : toute modification du système sera refusée par le système d'exploitation.
  4. http://fr.wikipedia.org/wiki/Next-generation_secure_computing_base
  5. Du nom du sénateur américain Ernest Fritz Hollings ayant soutenu les amendements de la loi américaine favorisant ce projet
  6. Voir par exemple Sony, qui a décidé en juin 2010 de supprimer l'option « OS alternatif » qui permettait d'avoir le système d'exploitation Linux sur la console Play Station 3[ http://www.zdnet.fr/actualites/linux-sur-la-console-ps3-c-est-fini-a-decide-sony-39750447.htm sans laisser le choix aux utilisateurs].
  7. Voir ci-dessous les exemples de l'iPhone et d'eFuse
  8. voir par exemple : « Activer ou désactiver le module de plateforme sécurisée » http://technet.microsoft.com/fr-fr/library/cc754524.aspx
  9. Page 80 Rapport rendu au Premier ministre le 13 janvier 2006, « La sécurité des systèmes d'information : un enjeu majeur pour la France » par Pierre LASBORDES, http://www.ladocumentationfrancaise.fr/rapports-publics/064000048/index.shtml
  10. Comme c'est déjà le cas avec l'Appstore d'Apple par exemple
  11. http://www.assemblee-nationale.fr/14/projets/pl1015.asp
  12. Action de groupe: une procédure par laquelle une association ou un groupe d'individus saisit seul un juge pour le compte d'un groupe d'individus qui ont le même litige
  13. pour plus d'information, lire l'analyse de Benjamin Sonntag.
  14. General Public License, Licence Publique Générale http://www.april.org/fr/quest-ce-que-la-gpl
  15. pour plus d'informations, voir notamment http://www.gnu.org/licenses/rms-why-gplv3.fr.html
  16. http://www.gnu.org/licenses/quick-guide-gplv3.fr.html
  17. Pour plus d'information, voir le site de Symbian : https://www.symbiansigned.com/app/page
  18. http://www.defectivebydesign.org/
  19. Voir notamment sur cette campagne http://www.framablog.org/index.php/post/2010/02/12/ipad-is-bad-apple-1984
  20. L'expression « jailbreak » désigne littéralement l'évasion. Elle est couramment utilisée pour désigner le contournement des mesures de restriction imposées par Apple.
  21. En français, fusible électronique.
  22. Pour plus d'information, voir par exemple cette dépêche
  23. littéralement faiseur de prix
  24. littéralement « preneur de prix »
  25. Hold up planétaire:Roberto Di Cosmo et Dominique Nora, Éditions zéro heure,page 19
  26. Windows seven : contrôle d'usage et captation de clientèle livrés en standard », Communiqué de Presse April,le 22 octobre 2009 [1]
  27. « Rapport Final du groupe de travail ministériel « partenariat sur les logiciels » ,rendu le 15 juin 2007, page 13
  28. Arnaud Parienty, Alternatives économiques, n° 213 (04/2003)
  29. Livre blanc : Les modèles économiques du Logiciel Libre , April, décembre 2007 page 28 ,[2]
  30. �« Interface Micrologicielle Extensible Unifiée »
  31. « Basic Input Output System » : ensemble de fonction contenus dans la mémoire morte (ROM) de la carte mère. Il est aujourd'hui jugé obsolète au regard des avancées technologiques, depuis 2012 une transition de l'ensemble de l'industrie informatique vers l'UEFI a été amorcé.
  32. http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:C:2008:115:0047:0199:fr:PDFTFUE)
  33. Processeur dominant pour la téléphonie mobile et les tablettes
  34. http://economie.lefigaro.fr/_societes/pc-part-de-marche-microsoft.html
  35. devenue la Cour de Justice de l'Union Européenne depuis l'entrée en vigueur du Traité de Lisbonne le 1er décembre 2009
  36. http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=CELEX:61976CJ0027:FR:HTML
  37. http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=CELEX:61976CJ0085:FR:HTML
  38. « la position dominante visée à l’article 82 du traité sur la Communauté européenne concerne la situation de puissance économique détenue par une entreprise qui lui donne le pouvoir de faire obstacle au maintien d'une concurrence effective sur le marché en cause, en lui fournissant la possibilité de comportements indépendants vis-à-vis de ses concurrents.Pour que le comportement fasse l’objet d’une sanction par une autorité de concurrence (ou par un juge), l’entreprise doit abuser de sa position. L’abus se caractérise par les comportements d'une entreprise en position dominante qui sont de nature à influencer la structure du marché, où, à la suite précisément de la position de l'entreprise en question, le degré de concurrence est déjà affaibli, et qui ont pour effet de faire obstacle, par le recours à des moyens différents de ceux qui gouvernent la compétition normale des produits ou des services sur la base des prestations des opérateurs économiques, au maintien du degré de concurrence existant encore sur le marché ou au développement de cette concurrence » - définition jurisprudentielle de l'abus de position dominante
  39. « Décision Microsoft : le difficile bilan économique de l'obligation d'interopérabilité » par Christian MONTET, Revue Lamy de la concurrence 200817
  40. https://linuxfr.org/news/tcpatpm-la-d%C3%A9ferlante-silencieuse
  41. Benoit Sibaud, ingénieur, Président de l'April de 2004 à 2010
  42. http://frawin.com/constructeur-2/microsoft/2013/14900_windows-8-represente-7-5-du-marche-des-tablettes.html