Synthèse informatique déloyale
Cette page présente un texte de synthèse en cours de réalisation.
Si vous souhaitez participer, n'hésitez pas à laisser votre avis sur la page de discussion en suivant au mieux ces recommandations.
Introduction
L'expression « informatique de confiance » regroupe des dispositifs de contrôle d'usage qui s'appliquent à l'ensemble de votre équipement numérique contre votre volonté. L'informatique déloyale peut prendre la forme d'une puce électronique ou d'un logiciel qui identifie les composants et les programmes installés sur la machine ; elle peut aussi limiter/interdire la mise en place de tout matériel ou l'utilisation de tout logiciel.
Là où le DRM contrôle l'usage qui peut être fait d'un contenu ou d'un logiciel verrouillé donné, l'informatique déloyale contrôle indépendamment de votre volonté tous les usages qui peuvent être fait avec un de vos équipements (ordinateur, mobile, tablette graphique, assistant numérique, etc.).
L'informatique de confiance est vendue par ses promoteurs comme un moyen de sécurisation, par le contrôle à chaque démarrage de l'ensemble des processus et/ou matériels présents. Cela permet la neutralisation de ce qui n'est pas considéré comme étant « de confiance ».
Ce sont les conditions de cette confiance qui posent problème : dans le cadre de l'informatique déloyale, ce n'est plus à l'utilisateur qu'on décide de faire confiance, mais à une entreprise privée, un « tiers de confiance ». Ce tiers obtient ainsi le contrôle final de l'ordinateur sans que l'utilisateur n'ait aucun recours. Tout se passe comme si un logiciel de contrôle parental était installé d'autorité sur chaque machine et que les utilisateurs n'étaient plus que les « enfants » : l'administrateur, qui décide de ce qu'il est possible de faire, serait alors ce « tiers de confiance » sur lequel vous n'avez aucun contrôle et dont vous ignorez les motivations et parfois jusqu'à l'existence.
Dans la mesure où l'approbation de ce tiers « de confiance » est nécessaire pour faire fonctionner tout programme, les logiciels libres ne peuvent s'inscrire dans le cadre de l'informatique de confiance, autant pour des raisons qui tiennent à la nature même du logiciel libre - qui, par définition, donne aux utilisateurs le contrôle complet sur leur matériel et logiciel - que par le refus des acteurs de l'informatique de confiance de voir le logiciel libre intégré dans cette logique[1].
Définition
Le nom « informatique de confiance » vient du « Trusted Computing Group »[2] (groupe de l'informatique de confiance), un consortium d'entreprises qui souhaite développer les moyens de "sécurisation" (en réalité, de contrôle d'usage) des équipements numériques. Dans la mesure où il s'agit d'initiatives privées, il n'y a donc pas de cadre légal ou de définition juridique précis, le concept pouvant inclure de nouveaux processus toujours plus intrusifs.
De manière générale, le terme d'informatique « de confiance » désigne aujourd'hui de nombreux projets, parallèles et/ou concurrents, qui cherchent à étendre le contrôle d'usage en direction du matériel[3]. Les plus connus sont Palladium, devenu NGSCB (« Next Generation Secure Computing Base » Base d'information sécurisée de nouvelle génération) et TCG (Trusted Computing Group, ex TCPA pour « Trusted Computing Platform Alliance », Plateforme d'Alliance de l'informatique de confiance).
L'origine de l'informatique déloyale
Le « Trusted Computing Plateform Alliance »
Depuis, plus d'une décennie maintenant, les plus importants fournisseurs et constructeurs de matériels informatiques et de logiciels pour Pc s'efforcent de construire « une informatique de confiance » En 1999 émerge le projet « Trusted computing plateform alliance » ( puis rebaptisée à partir de 2003 » Trusted Computing Group » TPG ) qui sera à l'origine d'une nouvelle industrie visant à sécuriser l'informatique, mais sécuriser pour qui ? L'origine du projet en dit long sur sa raison d'être, il s'agit d'une alliance d'entreprises informatiques parmi lesquelles se retrouvent Compaq, HP, IBM, Intel, Microsoft, AMD( etc) afin de bâtir une informatique dite de « confiance » dont le principe de base repose sur une mesure technique à savoir assigner une signature à chaque objet informatique et déléguer par la suite à un « tiers de confiance » le soin de vérifier si l’objet manipulé est autorisé à être utilisé sur un système informatique donné. Mais conscient des enjeux concurrentiels, le projet TCPA a publié des spécifications « open source » c'est-à-dire libres de tout son système, disponible librement en téléchargement sur son site web [4].
Le projet Palladium : une technologie consubstantielle à l'architecture Microsoft
En 2002, Microsoft s'empare du projet initial pour en faire un élément consubstantiel à son architecture et développe sa propre technologie sous le nom de Palladium qui deviendra en 2003 « Next-Generation Secure Computing Base » ( NGSCB) littéralement « base d'information sécurisée de nouvelle génération ».
Officiellement, selon Microsoft l'objectif du déploiement d'un tel dispositif technique est de résoudre l'ensemble des problèmes de sécurités informatiques « et de créer des applications distribuées d'un type nouveau où chaque composant puisse faire confiance aux autres parties du système à savoir logicielles ou matérielles » [5]. La NGSCB permet de sécuriser l'ensemble du système contre les virus et autres malwares dès lors le concept reste le même. Mais, l’usage fait de la technologie a perdu chez Microsoft toute notion de transparence. Et pour cause, le décalage entre les déclarations et les faits peuvent laisser perplexes. Au moment du lancement du projet et face aux craintes de nombreux acteurs dont le monde du logiciel libre, Microsoft a souhaité rassurer en déclarant que le dispositif technique matériel du projet offrirait une spécification publique et qu’ainsi un acteur du logiciel libre tel que Linux, par exemple, pourra accéder à la technologie et fonctionner ainsi sur le matériel implémenté. Ceci étant, il n’existe à l'heure d'aujourd'hui, aucune certitude sur la question. Par ailleurs, Microsoft dispose d’un grand nombre de brevets sur l’utilisation de cette technologie et à ce jour Microsoft ne s’est pas engagé à la mise en place de licences raisonnables et non discriminatoires de ces brevets, dès lors Microsoft pourrait interdire l’accès aux fonctions de la technologie en question à tous concurrents, Linux par exemple qui gagne de plus en plus de part de marché. Aussi d'un point de vue technique, Microsoft va encore plus loin que le projet intial. En effet, NGSCB utilise extensivement le processeur cryptographique connu sous le nom de Trusted Plateform Module (TPM) ou encore surnommé puce Fritz [6]. Techniquement cela prend la forme d'un composant cryptographique matériel, qui a vocation à être implémenté au sein de tout type de matériel électronique ou informatique. Lors des premières versions de chez IBM, la puce était soudée à la carte mère. Aujourd'hui Microsoft implémente les puces au sein des processeurs, donc au cœur même de la machine.
Ainsi NGSCB permettrait également de s'assurer que les fichiers enregistrés par une certaine application, ne puissent être lus ou modifiés que par cette même application ou par une autre application autorisée. Microsoft nomme ce système spécifique « Sealed Storage » littéralement « stockage scellé » on pourrait tout aussi bien appeler cela « verrouillage du marché ».
Les risques de l'informatique déloyale
L'impact de l'informatique déloyale est très vaste, certaines formes sont déjà en place, tandis que d'autres représentent plutôt des menaces potentielles.
Ainsi, les dangers suivants sont identifiés :
- l'utilisateur perd le contrôle de sa propre machine. Il se retrouve dans l'obligation de se conformer aux exigences du tiers dit « de confiance » ;
- les conditions d'utilisation du matériel peuvent être modifiées a posteriori et sans aucun recours possible[7] ;
- malgré son but affiché de sécurité privée, l'informatique déloyale sert d'abord à mettre en place des dispositifs de contrôle d'usage, notamment pour renforcer les DRM mis en place par les majors de l'industrie du divertissement ;
- elle interdit aux utilisateurs de choisir leurs logiciels ou de désactiver des mesures de contrôle d'usage, et leur fait encourir un risque de blocage de la machine en cas de tentative de désactivation[8] ;
- elle exclut les produits concurrents sans possibilité de recours, et notamment tout Logiciel Libre, empêchant ainsi l'utilisation de toute alternative libre.
L'informatique déloyale s'inscrit de plus dans une logique qui peut inclure :
- la perte du contrôle de leurs propres données par les utilisateurs et le risque en cas de défaillance technique de perdre toutes ses données irrévocablement ;
- la possibilité pour une entreprise d'entrer dans la vie privée des utilisateurs, voire d'interdire l'anonymat.
Quand la technique se retourne contre l'utilisateur
Perte de contrôle de sa machine par l'utilisateur
Le premier danger de l'informatique déloyale est la perte du contrôle de sa propre machine. Les constructeurs affirment actuellement qu'il y a une possibilité de contournement[9] des mesures mises en place, et que l'utilisateur pourra faire fonctionner un programme affiché comme n'étant pas de confiance. Mais rien ne garantit que ces possibilités seront maintenues dans le temps, d'autant que l'idée de publier les spécifications techniques est rejetée en bloc par les entreprises commercialisant ces verrous. De plus, une telle attitude est aussi inacceptable moralement : elle revient à demander aux utilisateurs de se mettre volontairement dans une situation de dépendance vis-à-vis de ses « fournisseurs », sous prétexte qu'ils sont pour l'instant de bonne volonté.
Ces dangers pour le consommateur sont tout aussi valables pour les auteurs/éditeurs de logiciels. En effet, l'informatique déloyale ne permet pas l'intéropérabilité et donc la possibilité de proposer des programmes qui puissent fonctionner avec le système verrouillé; en d'autres termes, il devient alors nécessaire de faire de la rétro-ingéniérie pour proposer de nouveaux programmes.
Bien sûr, certains continueront d'étudier le matériel et le logiciel pour comprendre leur fonctionnement par ingénierie inverse. Mais étant donné la complexité de ce système ainsi que les coûts de telles études (le premier étant l'achat du matériel), ces études seront de moins en moins nombreuses, de plus en plus coûteuses et décourageront un grand nombre d'utilisateurs qui ne souhaitaient pourtant pas un tel contrôle. La liberté d'usage serait alors limitée à un très petit nombre, créant ainsi des discriminations entre les experts du domaine et le grand public.
Dissimulation des objectifs et absence de choix : comment l'informatique déloyale se fait accepter auprès du grand public
Face aux multiples dangers que représente l'informatique déloyale, se pose la question de l'acceptation par les consommateurs de telles restrictions de libertés : pourquoi et comment de telles mesures pourraient-elles être acceptées ? La première raison s'approche de la vente liée : si la totalité des machines sur le marché intégraient ces verrous, les utilisateurs pourraient ne plus avoir le choix.
De plus, certains programmes ou fichiers pourraient n'être ouverts que par des logiciels répondant aux normes de contrôle de l'informatique déloyale. En d'autres termes, vous ne pourriez plus jouer à votre jeu préféré, ou même lire des DVD ou des albums musicaux distribués par certaines compagnies, si vous ne possédez pas d'ordinateur tatoué ; peut-être que vous seriez contraints de choisir un éditeur particulier pour tous les contenus numériques que vous voulez lire, ou vous ne pourriez plus communiquer avec vos proches utilisant un équipement différent. Difficile pour beaucoup de résister...
Pire encore, certains utilisateurs se satisferaient sans doute d'être soumis à ces techniques au nom de la sécurité. Puisque tous les processus sont vérifiés au préalable, la présence de logiciels malveillants serait limitée par la mise en place d'une liste pré-établie. Plutôt que d'interdire à posteriori ce qui est jugé nocif, l'équipement ne pourra plus faire que ce qui est préalablement autorisé.
Ces régressions des libertés au nom d'une sécurité largement illusoire (des moyens de contournement seront sans doute créés par la suite) sont inacceptables et mettent en danger l'existence même d'un choix libre concernant les programmes et logiciels. De telles mesures pourraient porter atteinte à l'ensemble du logiciel libre, par exemple par la mise en place d'un catalogue de programmes émanant d'un seul groupe d'entreprises et qui interdirait tout autre programme[10].
La Tivoïsation du monde — la tentative d'éviction des libertés du logiciel
Définition de la tivoïsation
L'expression de « tivoïsation » vient de l'entreprise américaine Tivo, un des plus gros constructeurs de magnétoscopes numériques. Ces magnétoscopes reposent sur l'utilisation de logiciels libres sous licence GNU GPL. Mais même si les sources sont disponibles, il est impossible pour les utilisateurs de modifier le programme embarqué dans ces magnétoscopes pour en améliorer les usages ; le matériel contrôle en effet que le logiciel correspond bien à celui qui a été validé par la firme, par une signature numérique. Les utilisateurs ne peuvent donc pas utiliser leur logiciel modifié. En d'autres termes, c'est le matériel qui empêche l'exercice de la liberté sur le logiciel. La tivoïsation est donc un néologisme, qui désigne l'utilisation de logiciels libres sur un matériel verrouillé[11].
Que les logiciels soient libres ou non n'a plus aucune importance : quelles que soient leurs conditions de licence, la mise en place d'un tel contrôle réduit à néant une des quatre libertés.
La GPL v3, réponse à la tivoïsation
Pour écarter les dangers de la tivoïsation, la GPL[12] v3[13] a été écrite en posant comme principe que si la mise en place de DRM n'est pas interdite en tant que telle, il doit être possible d'enlever toute fonctionnalité non souhaitée. En d'autres termes, plutôt que d'interdire les mesures de contrôle d'usage, elle s'assure de la possibilité pour les utilisateurs de contourner de telles mesures. Il s'agit donc de maintenir les libertés de tous les utilisateurs : ceux qui souhaitent garder l'environnement limité et contrôlé peuvent le faire, mais ceux qui souhaitent s'en affranchir ne sont plus empêchés de le faire. C'est, pour reprendre les termes des rédacteurs de la licence, le moyen d'éviter que « le droit de modifier votre logiciel [ne devienne] caduc si aucun de vos ordinateurs ne vous le permet »[14].
Cela permet donc de garantir aux utilisateurs d'avoir le choix, ce que l'informatique déloyale empêche.
Un exemple de tivoïsation : le modèle de Symbian
L'OS développé par Symbian exige ainsi que tous les programmes soient signés par l'entreprise pour pouvoir fonctionner sur les appareils vendus sous sa marque. Si les informations (code source) sont effectivement disponibles, cela empêche d'utiliser l'appareil pour faire ce que l'on souhaite dessus, y compris d'installer sa propre version.
Symbian OS est pourtant sous licence libre : mais celle-ci perd toute valeur, car les appareils sont toujours bloqués et exigent d'utiliser exclusivement les programmes proposés par l'entreprise. Pour pouvoir faire des modifications, il faut ainsi demander la permission à Symbian, qui propose des régimes plus ou moins restrictifs selon le domaine concerné. Cette demande d'autorisation est payante, et surtout peut être limitée par Symbian à la modification du code sur un seul téléphone précis (identification par numéro IMEI)[15]. Ainsi, la licence libre du système d'exploitation perd toute pertinence : la liberté n'est plus que théorique et ne peut plus être mise en pratique.
Vers un environnement entièrement contrôlé ?
Le modèle intégré d'Apple
Cette absence de choix se retrouve aussi dans le modèle économique d'Apple et dans sa stratégie d'enfermement de ses clients : les matériels Apple ne peuvent être utilisés qu'avec d'autres matériels et logiciels approuvés par Apple. Toute alternative est explicitement exclue par l'entreprise.
Ainsi, le dispositif de contrôle d'usage d'Apple vérifie chaque programme installé sur les machines, iPhone ou iPad. Chaque logiciel doit être préalablement signé par une clé de chiffrement d'Apple. À chaque installation, l'appareil vérifie auprès d'Apple si la signature est valide et, si ce n'est pas le cas ou que la signature est illisible, il refuse purement et simplement d'installer le programme. C'est également le cas si le programme a été modifié de quelque manière que ce soit. De plus, la signature est liée à un appareil précis, ce qui empêche tout partage du programme. Pire encore, Apple exige que tous les programmes soient distribués par l'Appstore pour les signer, et interdit donc explicitement tout marchand alternatif. Ce que souhaite l'auteur du programme (comme la licence sous laquelle il souhaite le distribuer) n'a plus aucune importance : pour distribuer son produit, y compris un logiciel libre, il doit obtenir une autorisation d'Apple, ce qui inclut l'obligation de se soumettre aux conditions de licences imposées par cette entreprise.
Les fonctionnalités des appareils sont donc intentionnellement limitées par le constructeur : c'est pour cela qu'a été lancée la campagne « defective by design[16] » par la Free Software Foundation, qui démontre à quel point l'iPad est une régression intentionnelle par rapport à tout ce que l'informatique offre comme possibilités aujourd'hui [17].
Certes, les possibilités de contournement existent, comme le « jailbreak »[18] de l'iPhone d'Apple. Mais elles ne sont pas autorisées par l'entreprise, entraînent la perte de la garantie, sont difficiles à mettre en œuvre et n'offrent aucune certitude quant à leur pérennité dans le temps. Surtout, ce sont des solutions de contournement qui ne changent rien à l'existence du problème.
eFuse[19], une altération du matériel en cas de contournement du contrôle d'usage
Apple, s'il est caractéristique, n'en reste pas moins un exemple parmi d'autres. La controverse autour du Droid X de Motorola en est d'ailleurs un bon exemple : ce smartphone intègre une puce eFuse qui permet d’empêcher de façon permanente l'allumage du mobile si les programmes installés ne correspondent pas à ce qui a été approuvé par Motorola. Ainsi, au nom de la lutte contre les logiciels malveillants, toute tentative de modification de programme qui ne serait pas approuvée par Motorola pourrait donc potentiellement entrainer l'impossibilité définitive d'utiliser l'appareil[20].
Globalement, ce type de mesure est paradoxal : il s'agit d'ajouter des technologies pour pouvoir faire moins qu'auparavant avec le même type d'appareil. La puce est ajoutée uniquement pour empêcher certains usages, sans apporter quoi que ce soit à l'utilisateur; Elle consomme de l'énergie et représente un coût inutile.
L'informatique déloyale ou la consécration des monopoles
L'informatique déloyale se base donc sur des « tiers de confiance », en réalité des entreprises privées qui n'ont à cœur que leurs propres intérêts, qui imposent ensuite leur desiderata aux développeurs et éditeurs de logiciels. Puisque les programmes ne peuvent fonctionner sans avoir été approuvés par le « tiers de confiance », celui-ci peut imposer toutes les conditions qu'il souhaite : financières, de licences, etc. Concrètement, quelques acteurs déjà en situation monopolistique pourraient ainsi bloquer toute alternative et donc assurer la permanence de leur monopole.
Le trou analogique, vendre la sécurité pour imposer le contrôle d'usage
L'informatique déloyale s'inscrit ainsi dans une logique où le « tiers de confiance » contrôle tout ce qui est fait avec les informations, en empêchant toute modification ou copie des données manipulées. Un tel mécanisme est cependant illusoire à mettre en œuvre : pour empêcher toute copie, il faudrait que l'information circule de manière chiffrée et non copiable sur l'ensemble de son parcours, depuis le support numérique jusqu'au cerveau de la personne qui lit l'œuvre. Cela est bien évidemment absurde : à partir du moment où l'œuvre est lue, il est possible d'utiliser un appareil d'enregistrement pour la copier. Par exemple, même si un DVD est protégé par un système de verrouillage complexe, cela n'empêchera jamais quelqu'un de filmer l'écran et d'enregistrer le son, et donc de réaliser une copie. C'est le paradoxe des tentatives de menottage numérique auxquelles on assiste de plus en plus souvent aujourd'hui : pour empêcher toute copie, il faut empêcher la lecture. Mais si on empêche la lecture, il n'y a plus d'œuvre à acheter, puisqu'il n'y a plus rien à lire !
Au-delà de cette impossibilité logique, le mode de fonctionnement de la plupart des ordinateurs rend également tout verrouillage total impossible : pour limiter les "trous" dans lesquels l'information circule en clair et pourrait être copiée, il faudrait que le déchiffrement se fasse au plus près des interfaces de sortie, par exemple dans les cartes sons ou vidéos. L'ensemble de ces dernières devraient donc intégrer les composants nécessaires au déchiffrement. Si c'est la raison pour laquelle des regroupements comme le TCG ont été créés, la collaboration entre les différents acteurs est difficile dans la pratique aujourd'hui
Les enjeux concurrentiels : vers un verrouillage progressif du marché ?
L'éviction caractérisée des logiciels libres
L'éviction des logiciels et des systèmes d'exploitations libres est patente.En effet, si les mesures de sécurité ne sont pas en elles-mêmes contraires au logiciel libre, les modalités actuelles de sa mise en œuvre renferment des dangers inéluctables pour le développement du logiciel libre. La technologie est a priori neutre, mais l'usage qui en est fait ne l'est pas toujours. Cette nouvelle technologie qui a vocation à étendre ses tentacules à l'ensemble du marché informatique, porte potentiellement en germe d'importants dangers pour la libre concurrence et l'innovation. Et pour cause, à ce jour aucune information complémentaire n'a été donné sur ce « tiers de confiance » ni sur la manière dont il est désigné. Pire encore, à l'heure d'aujourd'hui, seul Microsoft, répond à cette appellation. Dès lors quid de sa neutralité, peut-il être à la fois régulateur privé et acteur du marché ? Ainsi, force est de constater, que de facto, un logiciel quelconque qui n'aurait pu obtenir au préalable une signature référencée chez le « tiers de confiance » comme étant habilité à un usage sur le matériel informatique sera purement et simplement rejeté et donc hors de portée du consommateur. N'y a t-il pas là une absurdité aberrante ? Comment peut-on octroyer à une entreprise hégémonique sur le marché, les clés pour agréer ses propres concurrents ?
Les logiciels libres seront certainement confrontés à une seconde difficulté, en effet Il sera probablement difficile d'obtenir une certification pour un logiciel dont les sources sont ouvertes et peuvent être modifiées librement.
Par ailleurs une barrière tarifaire doit également être souligné, les développeurs du Libre n'ont pas forcément les moyens ni la possibilité même de payer une certification. La lumière n'a pas encore été faite sur les conditions d'obtention d'une certification. Faut-il nécessairement avoir la personnalité morale ou encore s'inscrire dans un processus de commercialisation ? Dès lors quid des développeurs libristes passionnés qui se consacrent au développement de logiciel depuis un ordinateur personnel sans prétention aucune ? Auront-ils encore demain la possibilité de poursuivre cet hobby sans verrous ? Rien ne le garantit.
À ce jour, seuls deux éditeurs de logiciels libres ont cédé au « chantage » , il s'agit de Canonical et de Red Hat, qui ont d'ores et déjà payer pour obtenir une clé et permettre ainsi aux ordinateurs de pouvoir lancer leurs systèmes d'exploitations.
Pour le reste des solutions alternatives, celles-ci n'étant pas encore passés à la caisse, ces systèmes d'exploitations libres ne pourront pas démarrer en mode sécurisé. Et même un logiciel libre installé sur un système d'exploitation propriétaire certifié ne pourra pas démarrer dans le sous-système TCG / NGSCB de la machine. Ainsi l'existence même des logiciels libres sur le marché est gravement menacée, il va devenir rapidement impossible de faire quoique ce soit avec un logiciel libre, dès lors qui voudra d'un logiciel inutilisable ? C'est un scénario catastrophe qui présente d'importants dangers pour le logiciel libre par la remise en cause de son modèle économique et la remise en cause d'une concurrence saine sur le marché.
Enfin il n'est pas anodin de noter que le projet informatique de confiance coïncide avec l'émergence des premiers logiciels libres sur le marché notamment la première distribution de Linux en 1992 qui est le logiciel libre au succès qu'on lui connaît. Dès lors n'y a-t-il pas là , en germe, une nouvelle stratégie d'éviction de la concurrence, en faveur du maintien d'une position monopolistique sur le marché ?
Le secure boot dans le viseur
L'ultime consécration de l'informatique déloyale est connue sous le nom de « secure boot » chez Microsoft, littéralement « démarrage sécurisé » et prend le nom de « Trusted Boot » (littéralement « démarrage de confiance ») dans le projet initial du groupe TCPA. Par ce projet Microsoft est sans aucun doute sur le point de s'octroyer une mainmise stratégique au cœur de la machine, lui permettant de piloter l'ensemble du marché.
Analyse technique du secure boot : « des verrous invisibles»
Techniquement la mise sous tension d'une machine lance un processus de démarrage qui est préalable au lancement du système d'exploitation. En d'autres termes il s'agit du logiciel intermédiaire entre le micrologiciel aussi appelé Firmware et le système d'exploitation. Il a notamment pour objet de permettre à la machine de détecter l'ensemble des périphériques. Il est donc un élément essentiel de la machine . Et c'est justement ce programme de démarrage préalable essentiel au lancement de tout système d'exploitation mais aussi à la détection de tout périphérique, composant (etc.), qui est visé aujourd'hui par le projet secure boot. Microsoft a annoncé la mise en place du secure boot à partir de 2012 , plus précisément concomitamment à la commercialisation de Windows 8 lancée le 26 octobre 2012 et qui intègre bien évidemment le secure boot. Les constructeurs doivent désormais implémenter l'Unified Extensible Firmware Interface [21] (UEFI) secure boot qui succède au BIOS [22] , s'ils souhaitent obtenir une certification Windows 8 pour leurs appareils notamment pour pouvoir y mettre le logo «Compatible Windows 8 ».
Concrètement, le secure boot qu'exige Microsoft prend la forme d'un composant cryptographique matériel, qui a vocation à être implémenté au sein de tout type de matériel électronique ou informatique. Lors des premières versions de chez IBM la puce était soudée à la carte mère. Aujourd'hui Microsoft implémente les puces au sein des processeurs, donc au cœur même de la machine. La force de cette nouvelle technologie réside dans le fait qu'elle soit implémentée, ancrée, au cœur du matériel conçu pour résister à toutes les attaques extérieures L'objectif technique de cette nouvelle technologie est précisément d'empêcher le lancement de programme malveillant au démarrage ayant pour objet de désactiver les logiciels anti-programmes malveillants. Le secure boot, qui au sein de l'interface UEFI prend la forme d'une fonction, renferme ainsi la promesse d'une sécurité informatique renforcée. Et il s'agit , à juste titre, d'un moyen d'assurer une sécurisation dès le démarrage de la machine et contourner ainsi l'ingéniosité des nouveaux programmes malveillants qui s'attaquent directement à la machine au cour du chemin de démarrage en désactivant l'ensemble des logiciels ayant pour objets d'assurer la sécurité de la machine. Et pour ce faire, Microsoft à mis au cœur du secure boot un processus de certification numérique en cascade afin de s'assurer que seuls les programmes mais aussi les composants, signés et authentifiés, seront susceptibles de s'exécuter sur la machine. Cela suppose donc l'existence d'une base de donnée capable d'enregistrer l'ensemble des signatures numériques de l'UEFI, avant que l'élément signé puisse démarrer sur l'appareil informatique équipé du secure boot.
Cette base de donnée qui contient les éléments autorisés à être exécutés sur la machine repose donc sur une agrégation de certificats numériques. Un certificat numérique étant concrètement un fichier qui contient une paire de clé privé et de clé publique de chiffrement. En l'espèce, cette certification repose sur la technologie Authenticode et une infrastructure à clés publiques. Authenticode est une technologie Microsoft qui fait usage d'un chiffrement standard pour signer du code d'application avec des certificats numériques qui vérifient l'authenticité de l'éditeur du programme. Tandis que l'infrastructure à clés publiques désigne le processus permettant de gérer l'ensemble des certificats autrement dit de créer, gérer et révoquer les certificats en vue d'aboutir à un climat de confiance dans l'échange d'information. Parallèlement à cette base de donnée accueillant l'ensemble des clés des programmes « bienveillants », il existe une base de donnée contenant des bouts de codes issus de programme malveillants dont l'exécution sera bloqué par la fonction secure boot. Reste que cette dichotomie semble oublier - ou évincer – une troisième hypothèse qui n'est pas réellement prise en compte au cœur de ce mécanisme. Il s'agit des composants « bienveillants » mais non certifiés par Microsoft. Dans la quête d'une sécurisation croissante du système informatique ce mécanisme risque d'être préjudiciable à un ensemble de concurrent émergent. Un logiciel quelconque qui n'aurait pu obtenir au préalable une signature référencée chez le « tiers de confiance » comme étant habilité à un usage sur le matériel informatique sera purement et simplement rejeté et donc hors de portée du consommateur ce qui comme nous le verrons plus loin, peut poser d'importantes questions concurrentielles. Par ailleurs, la technologie NGSCB irait même plus loin en permettant de s'assurer que les fichiers enregistrés par une certaine application, ne puissent être lus ou modifiés que par cette même application ou par une autre application autorisée. Microsoft nomme ce système spécifique « Sealed Storage » littéralement « stockage scellé » on pourrait tout aussi bien appeler cela « verrouillage du marché ».
Analyse juridique du secure boot : les griefs de la technologie
Plusieurs arguments juridiques pourraient être invoqués dans le cadre d'un contentieux à venir et mettre ainsi à mal la légalité même du dispositif technique dit de sécurité.
Premièrement quant à l'article 101 du Traité de Fonctionnement de l'Union Européenne [23] relatif aux règles de concurrence.Force est de constater que le secure boot étant de facto contrôlé par Microsoft, il encourt le grief de l'article b) à savoir qu'il a pour effet de "limiter ou contrôler la production, les débouchés, le développement technique ou les investissements". Et pour cause, les concurrents ne sont pas à l'abri d'un refus discrétionnaire de la part de Microsoft. Ainsi la fameuse clé signée qu'il est nécessaire d'obtenir pour être reconnu par le secure boot et que Microsoft propose à la vente pour 99 dollars, pourrait très vite devenir la clé d'accès au marché dont Microsoft se ferait "douanier". Les dérives d'un tel système sont plus qu'inquiétant pour le marché.
Par ailleurs, le point d) du même article trouverait certainement à s'appliquer dans le cadre d'un contentieux. En effet Microsoft pour se défendre avance l'argument selon lequel le secure boot serait aisément désactivable. Reste que même l'expérience des plus avisés à ce niveau montre que même en désactivant le secure boot sur les machines certifiées Microsoft, l'installation d'un système d'exploitation alternatif s'en trouve perturbé voir bloqué. Dès lors le grief pourrait être adressé aux fabricants de produits informatiques ayant implémentés le dispositif secure boot, "d'appliquer, à l'égard de partenaires commerciaux, des conditions inégales à des prestations équivalentes en leur infligeant de ce fait un désavantage dans la concurrence". Et ce désavantage est d'autant plus avéré, qu'au delà de la difficulté technique pour désactiver le secure boot et installer un système d'exploitation libre, il s'avère que concernant les appareils portables ( smartphone, tablettes etc) et donc les architectures ARM [24] il est impossible de désactiver le secure boot implémenté, la seule solution reste donc de "jailbreaker" son appareil mais il s'agit d'une pratique illégale et le consommateur perd dans ce cas le droit à la garantie du téléphone, ce qui peut dérouter plus d'un consommateur qui se résignera alors, contre son gré, au seul système qu'on lui impose.
Enfin le point e) du présent article peut également être invoqué, en effet celui-ci dénonce comme étant une pratique incompatible avec le marché intérieur le fait de "subordonner la conclusion de contrats à l'acceptation, par les partenaires, de prestations supplémentaires qui, par leur nature ou selon les usages commerciaux, n'ont pas de lien avec l'objet de ces contrats". Or la pratique de Microsoft tombe parfaitement sous le coup de cet article dans la mesure où Microsoft impose à l'ensemble des fabricants les plus éminents du marché d'implémenter le secure boot pour avoir le droit d'apposer le logo Microsoft sur les appareils vendus alors même qu'a priori il n'y a aucune nécessité à cela pour la commercialisation de leurs produits. Cela peut s'apparenter à du chantage pur et simple, notamment du fait de la position dominante de Microsoft face à laquelle les fabricants sont forcés de plier. Aussi cela s'inscrit dans la suite logique de la stratégie Microsoft qui consiste a proposer la vente de ses logiciels aux fabricants à des prix dérisoires qu'on pourrait assimiler à des prix "prédateurs" qui conduisent depuis des décennies à des pratiques de ventes liées imposés au consommateur (pack ordinateur et logiciel Microsoft).
Nul ne peut ignorer la position dominante de Microsoft sur le marché en cause, puisque cet éditeur de logiciel hégémonique détient à lui seul 95 % des parts sur le marché du Pc depuis 20 ans [25]. Dès lors l'abus de position dominante n'est jamais bien loin.
La domination est pour ainsi dire, une situation de fait que le droit tente d'appréhender. C'est dans cette optique que la Cour de Justice des Communautés Européennes [26] définie cette situation factuelle par un standard jurisprudentiel. Ce standard a été déterminé à l'origine dans la décision United Brands rendu par la Cour de Justice de la Communauté Européenne (CJCE) le 14 février 1978 [27] , reprise par celle d’Hoffmann - La Roche rendu par la même cour le 13 février 1979 [28]. Dès lors ce standard jurisprudentiel [29] laisse place à des exemples diverses et variés d'abus potentiels qui peuvent inclure tant le refus de vendre, que des prix prédateurs ou encore la rupture abusive des relations commerciales.
Concernant Microsoft, la firme a déjà fait l'objet d'une condamnation par la Commission Européenne le 24 mars 2004 sur le fondement de l'ancien article 82 du Traité de la Communauté Européenne (TCE). En l'espèce une affaire dans laquelle Microsoft avait refusé de fournir à son concurrent Sun Microsystems, les informations nécessaires à l'interopérabilité de son système avec des systèmes concurrents et d'en autoriser l'utilisation aux fins du développement et de la distribution de systèmes d'exploitation pour serveur de groupe de travail. En d'autres termes Microsoft avait été alors condamnée pour l'usage de sa position dominante sur le marché afin de « limiter les choix des consommateurs sur certains marchés connexes de celui des systèmes d'exploitation des PC » [30] .
À la suite de cette affaire, la Commission a ouvert une procédure et menée une enquête plus générale sur les conditions de commercialisation de Windows 2000 par Microsoft. À cette occasion la société Microsoft a elle même reconnu qu'elle détenait une position dominante sur le marché de plus de 90 % à ce moment là.
La technologie Secure boot de Microsoft encourt potentiellement le même grief conformément à l'article 102 du TFUE. Premièrement quant au point b) de la disposition, comme nous l'avons démontré précédemment à travers l'identification des dangers pour le consommateur il ne fait nul doute que la technologie secure boot à pour conséquence d'opérer un tri discrétionnaire des systèmes d'exploitations. À ce titre, l'atteinte à la concurrence peut être corrélé d'une atteinte à l'innovation au détriment du consommateur. Notamment en raison du fait que l'arrivée de nouveaux concurrents à normalement pour effet de stimuler la concurrence, ce qui poussent dès lors les entreprises à investir dans la recherche et le développement pour survivre à la compétition. Or le secure boot empêche justement la concurrence de se développer, il freine donc l'innovation au préjudice du consommateur qui se trouve de facto privé des éventuelles innovations de solutions alternatives et du bien être social que ces innovations peuvent produire. Enfin les points c) et d) du présent article peuvent être invoqués pour les mêmes raisons que vu précédemment concernant les points d) et e) de l'article 101 du TFUE identiques.
Le risque d'une généralisation par la contamination des marchés dérivés
Une étude de terrain menée en 2006 [31] par Benoît Sibaud [32] révélait qu'en 2006 déjà, les modèles de pc professionnels étaient équipés de la puce TPM chez Sony, ASUS, Toshiba, HP Compaq, Lenovo, DELL, Fujitsu-Siemens et bien évidemment APPLE dont tous les modèles sont équipés de cette technologie. Or quid de la transparence vis à vis des consommateurs ? L'étude révèle que les fabriquants ne communiquent pas sur l'implémentation de cette technologie au sein de leurs machines ou alors présente la technologie sous un autre jour, notamment comme étant une mesure de protection des données personnelles de l'utilisateur.
Par ailleurs, force est de constater que du fait de la généralisation de l'outil informatique, de plus en plus de marchés sont de facto affectés. Il ne s'agit plus seulement du seul marché des systèmes d'exploitation pour PC mais sont également concernés les systèmes d'exploitation pour serveurs , smartphones et tablettes (etc). À l'avenir Microsoft pourrait étendre ce système à tout matériel informatique : par exemple le marché des tablettes tactiles que Microsoft entend bien conquérir dans un futur proche (sa part de marché est passée de 0 % au premier trimestre 2012 à 7,5 % au premier trimestre 2013 [33]).
Aussi d'autres acteurs du marché s'inspirent de ce projet pour créer leurs propres « verrous », par exemple la société Apple utilise un mécanisme similaire pour restreindre l'installation et l'utilisation de son système d'exploitation MAC OS X sur des machines à base de processeur INTEL dont elle assure la fabrication. Concrètement cela prend la forme d'une puce TPM fournie par Apple qui doit normalement être présente sur la carte mère pour que ce système d'exploitation y soit utilisable.
Enfin le plus inquiétant est qu'à terme le projet initial TCPA entretient des liaisons dangereuses avec la question des Digital Rights Management (DRM) ou « menottes numériques », ainsi il est à craindre que le fondement même de l'informatique de confiance est à terme de mettre en place des DRM à différent stade de la chaîne informatique pour contrôler les logiciels et les documents.
Références
- ↑ voir par exemple http://www.trustedcomputinggroup.org/resources/five_great_reasons_to_adopt_trusted_computing : "There are, of course, valid objections on the basis of that it is a closed chip, and although it could be implemented using Open Source software who is to say that there are no hidden backdoors in the implementation. However, a similar argument can be made for just about any computer system available, so if you can get past that mental block, here are five great reasons to get excited about Trusted Computing [...]"
- ↑ Voir par exemple leur site
- ↑ on étend donc les mesures de contrôle d'usage déjà existantes avec les DRM sur des œuvres données au contrôle de l'équipement : par exemple, une licence OEM Windows ne peut être valable que pour une carte mère et (parfois) un disque dur donnés : toute modification du système sera refusée par le système d'exploitation.
- ↑ http://www.trustedcomputinggroup.org/
- ↑ http://fr.wikipedia.org/wiki/Next-generation_secure_computing_base
- ↑ Du nom du sénateur américain Ernest Fritz Hollings ayant soutenu les amendements de la loi américaine favorisant ce projet
- ↑ Voir par exemple Sony, qui a décidé en juin 2010 de supprimer l'option « OS alternatif » qui permettait d'avoir le système d'exploitation Linux sur la console Play Station 3[ http://www.zdnet.fr/actualites/linux-sur-la-console-ps3-c-est-fini-a-decide-sony-39750447.htm sans laisser le choix aux utilisateurs].
- ↑ Voir ci-dessous les exemples de l'iPhone et d'eFuse
- ↑ voir par exemple : « Activer ou désactiver le module de plateforme sécurisée » http://technet.microsoft.com/fr-fr/library/cc754524.aspx
- ↑ Comme c'est déjà le cas avec l'Appstore d'Apple par exemple
- ↑ pour plus d'information, lire l'analyse de Benjamin Sonntag.
- ↑ General Public License, Licence Publique Générale http://www.april.org/fr/quest-ce-que-la-gpl
- ↑ pour plus d'informations, voir notamment http://www.gnu.org/licenses/rms-why-gplv3.fr.html
- ↑ http://www.gnu.org/licenses/quick-guide-gplv3.fr.html
- ↑ Pour plus d'information, voir le site de Symbian : https://www.symbiansigned.com/app/page
- ↑ http://www.defectivebydesign.org/
- ↑ Voir notamment sur cette campagne http://www.framablog.org/index.php/post/2010/02/12/ipad-is-bad-apple-1984
- ↑ L'expression « jailbreak » désigne littéralement l'évasion. Elle est couramment utilisée pour désigner le contournement des mesures de restriction imposées par Apple.
- ↑ En français, fusible électronique.
- ↑ Pour plus d'information, voir par exemple cette dépêche
- ↑ �« Interface Micrologicielle Extensible Unifiée »
- ↑ « Basic Input Output System » : ensemble de fonction contenus dans la mémoire morte (ROM) de la carte mère. Il est aujourd'hui jugé obsolète au regard des avancées technologiques, depuis 2012 une transition de l'ensemble de l'industrie informatique vers l'UEFI a été amorcé.
- ↑ http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:C:2008:115:0047:0199:fr:PDFTFUE)
- ↑ Processeur dominant pour la téléphonie mobile et les tablettes
- ↑ http://economie.lefigaro.fr/_societes/pc-part-de-marche-microsoft.html
- ↑ devenue la Cour de Justice de l'Union Européenne depuis l'entrée en vigueur du Traité de Lisbonne le 1er décembre 2009
- ↑ http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=CELEX:61976CJ0027:FR:HTML
- ↑ http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=CELEX:61976CJ0085:FR:HTML
- ↑ « la position dominante visée à l’article 82 du traité sur la Communauté européenne concerne la situation de puissance économique détenue par une entreprise qui lui donne le pouvoir de faire obstacle au maintien d'une concurrence effective sur le marché en cause, en lui fournissant la possibilité de comportements indépendants vis-à-vis de ses concurrents.Pour que le comportement fasse l’objet d’une sanction par une autorité de concurrence (ou par un juge), l’entreprise doit abuser de sa position. L’abus se caractérise par les comportements d'une entreprise en position dominante qui sont de nature à influencer la structure du marché, où, à la suite précisément de la position de l'entreprise en question, le degré de concurrence est déjà affaibli, et qui ont pour effet de faire obstacle, par le recours à des moyens différents de ceux qui gouvernent la compétition normale des produits ou des services sur la base des prestations des opérateurs économiques, au maintien du degré de concurrence existant encore sur le marché ou au développement de cette concurrence » - définition jurisprudentielle de l'abus de position dominante
- ↑ « Décision Microsoft : le difficile bilan économique de l'obligation d'interopérabilité » par Christian MONTET, Revue Lamy de la concurrence 200817
- ↑ https://linuxfr.org/news/tcpatpm-la-d%C3%A9ferlante-silencieuse
- ↑ Benoit Sibaud, ingénieur, Président de l'APRIL de 2004 à 2010
- ↑ http://frawin.com/constructeur-2/microsoft/2013/14900_windows-8-represente-7-5-du-marche-des-tablettes.html