Synthèse informatique déloyale
Cette page présente un texte de synthèse en cours de réalisation.
Si vous souhaitez participer, n'hésitez pas à laisser votre avis sur la page de discussion en suivant au mieux ces recommandations.
Introduction
L'expression « informatique de confiance » regroupe des dispositifs de contrôle d'usage qui s'appliquent à l'ensemble de votre équipement numérique contre votre volonté. L'informatique déloyale peut prendre la forme d'une puce électronique ou d'un logiciel qui identifie les composants et les programmes installés sur la machine ; elle peut aussi limiter/interdire la mise en place de tout matériel ou l'utilisation de tout logiciel.
Là où le DRM contrôle l'usage qui peut être fait d'un contenu ou d'un logiciel verrouillé donné, l'informatique déloyale contrôle indépendamment de votre volonté tous les usages qui peuvent être fait avec un de vos équipements (ordinateur, mobile, tablette graphique, assistant numérique, etc.).
L'informatique dite de confiance est vendue par ses promoteurs comme un moyen de sécurisation, par le contrôle à chaque démarrage de l'ensemble des processus et/ou matériels présents. Cela permet la neutralisation de ce qui n'est pas considéré comme étant « de confiance ».
Ce sont les conditions de cette confiance qui posent problème : dans le cadre de l'informatique déloyale, ce n'est plus à l'utilisateur qu'on décide de faire confiance, mais à une entreprise privée, un « tiers de confiance ». Ce tiers obtient ainsi le contrôle final de l'ordinateur sans que l'utilisateur n'ait aucun recours. Tout se passe comme si un logiciel de contrôle parental était installé d'autorité sur chaque machine et que les utilisateurs n'étaient plus que les « enfants » : l'administrateur, qui décide de ce qu'il est possible de faire, serait alors ce « tiers de confiance » sur lequel vous n'avez aucun contrôle et dont vous ignorez les motivations et parfois jusqu'à l'existence.
Dans la mesure où l'approbation de ce tiers « de confiance » est nécessaire pour faire fonctionner tout programme, les logiciels libres ne peuvent s'inscrire dans le cadre de l'informatique de confiance, autant pour des raisons qui tiennent à la nature même du logiciel libre - qui, par définition, donne aux utilisateurs le contrôle complet sur leur matériel et logiciel - que par le refus des acteurs de l'informatique de confiance de voir le logiciel libre intégré dans cette logique[1].
Définition
Le nom « informatique de confiance » vient du « Trusted Computing Group »[2] (groupe de l'informatique de confiance), un consortium d'entreprises qui souhaite développer les moyens de "sécurisation" (en réalité, de contrôle d'usage) des équipements numériques. Dans la mesure où il s'agit d'initiatives privées, il n'y a donc pas de cadre légal ou de définition juridique précise, le concept pouvant inclure de nouveaux processus toujours plus intrusifs.
De manière générale, le terme d'informatique « de confiance » désigne aujourd'hui de nombreux projets, parallèles et/ou concurrents, qui cherchent à étendre le contrôle d'usage en direction du matériel[3]. Les plus connus sont Palladium, devenu NGSCB (« Next Generation Secure Computing Base » Base d'information sécurisée de nouvelle génération) et TCG (Trusted Computing Group, ex TCPA pour « Trusted Computing Platform Alliance », Plateforme d'Alliance de l'informatique de confiance).
Les dangers de l'informatique déloyale
L'impact de l'informatique déloyale est très vaste, certaines formes sont déjà en place, tandis que d'autres représentent plutôt des menaces potentielles.
Ainsi, les dangers suivants sont identifiés :
- l'utilisateur perd le contrôle de sa propre machine. Il se retrouve dans l'obligation de se conformer aux exigences du tiers dit « de confiance » ;
- les conditions d'utilisation du matériel peuvent être modifiées a posteriori et sans aucun recours possible[4] ;
- malgré son but affiché de sécurité privée, l'informatique déloyale sert d'abord à mettre en place des dispositifs de contrôle d'usage, notamment pour renforcer les DRM mis en place par les majors de l'industrie du divertissement ;
- elle interdit aux utilisateurs de choisir leurs logiciels ou de désactiver des mesures de contrôle d'usage, et leur fait encourir un risque de blocage de la machine en cas de tentative de désactivation[5] ;
- elle exclut les produits concurrents sans possibilité de recours, et notamment tout Logiciel Libre, empêchant ainsi l'utilisation de toute alternative libre.
L'informatique déloyale s'inscrit de plus dans une logique qui peut inclure :
- la perte du contrôle de leurs propres données par les utilisateurs et le risque en cas de défaillance technique de perdre toutes ses données irrévocablement ;
- la possibilité pour une entreprise d'entrer dans la vie privée des utilisateurs, voire d'interdire l'anonymat.
Quand la technique se retourne contre l'utilisateur
La restriction des droits de l'utilisateur ou la perte de contrôle de son propre matériel
Le premier danger de l'informatique déloyale est la perte du contrôle de sa propre machine et donc une régression de la liberté du consommateur de pouvoir faire l'usage qu'il souhaite de son propre matériel. Les constructeurs affirment qu'il y a une possibilité de contournement[6] des mesures mises en place. Mais rien ne garantit que ces possibilités seront maintenues dans le temps, alors même que les utilisateurs se retrouvent dans une situation de dépendance.
Ces dangers pour le consommateur sont tout aussi valables pour les auteurs/éditeurs de logiciels, en empêchant l'interopérabilité et toute possibilité de proposer des programmes qui puissent fonctionner avec le système verrouillé. Bien sûr, certains continueront d'étudier le matériel et le logiciel pour comprendre leur fonctionnement, notamment par ingénierie inverse. Mais étant donnés la complexité et les coûts de telles études, celles-ci seront de moins en moins nombreuses et décourageront un grand nombre d'utilisateurs. La liberté d'usage serait alors limitée à un très petit nombre, créant ainsi des discriminations entre les experts du domaine et le grand public.
Pire encore, dans le cas d'une machine connectée à internet, cette connexion permet aux fabricants de modifier les restrictions d'usages à tout moment, à l'insu même de l'utilisateur, par exemple sous la forme d'une mise à jour qu'il accepte sans véritablement savoir ce qu'elle renferme précisément.
Dissimulation des objectifs et absence de choix : comment l'informatique déloyale se fait accepter auprès du grand public
La première raison s'approche de la vente liée : si la totalité des machines sur le marché intégraient ces verrous, les utilisateurs pourraient ne plus avoir le choix.
Certains programmes ou fichiers pourraient n'être ouverts que par des logiciels répondant aux normes de contrôle de l'informatique déloyale. En d'autres termes, vous ne pourriez plus jouer à votre jeu préféré, ou même lire des DVD ou des albums musicaux distribués par certaines compagnies, si vous ne possédez pas d'ordinateur tatoué ; peut-être que vous seriez contraints de choisir un éditeur particulier pour tous les contenus numériques que vous voulez lire, ou vous ne pourriez plus communiquer avec vos proches utilisant un équipement différent. Difficile pour beaucoup de résister...
Pire encore, certains utilisateurs se satisferaient sans doute d'être soumis à ces techniques au nom de la sécurité. Puisque tous les processus sont vérifiés au préalable, la présence de logiciels malveillants serait limitée par la mise en place d'une liste pré-établie.
La Tivoïsation du monde — la tentative d'éviction des libertés du logiciel
Définition de la tivoïsation
L'expression de « tivoïsation » vient de l'entreprise américaine Tivo, un des plus gros constructeurs de magnétoscopes numériques. Ces magnétoscopes reposent sur l'utilisation de logiciels libres sous licence GNU GPL. Mais même si les sources sont disponibles, il est impossible pour les utilisateurs de modifier le programme embarqué dans ces magnétoscopes pour en améliorer les usages ; le matériel contrôle en effet que le logiciel correspond bien à celui qui a été validé par la firme, par une signature numérique. Les utilisateurs ne peuvent donc pas utiliser leur logiciel modifié. En d'autres termes, c'est le matériel qui empêche l'exercice de la liberté sur le logiciel. La tivoïsation est donc un néologisme, qui désigne l'utilisation de logiciels libres sur un matériel verrouillé[7].
Que les logiciels soient libres ou non n'a plus aucune importance : quelles que soient leurs conditions de licence, la mise en place d'un tel contrôle réduit à néant une des quatre libertés.
La GPL v3, réponse à la tivoïsation
Pour écarter les dangers de la tivoïsation, la GPL[8] v3[9] a été écrite en posant comme principe que si la mise en place de DRM n'est pas interdite en tant que telle, il doit être possible d'enlever toute fonctionnalité non souhaitée. En d'autres termes, plutôt que d'interdire les mesures de contrôle d'usage, elle s'assure de la possibilité pour les utilisateurs de contourner de telles mesures. Il s'agit donc de maintenir les libertés de tous les utilisateurs : ceux qui souhaitent garder l'environnement limité et contrôlé peuvent le faire, mais ceux qui souhaitent s'en affranchir ne sont plus empêchés de le faire. C'est, pour reprendre les termes des rédacteurs de la licence, le moyen d'éviter que « le droit de modifier votre logiciel [ne devienne] caduc si aucun de vos ordinateurs ne vous le permet »[10].
Cela permet donc de garantir aux utilisateurs d'avoir le choix, ce que l'informatique déloyale empêche.
Un exemple de tivoïsation : le modèle de Symbian
L'OS développé par Symbian exige ainsi que tous les programmes soient signés par l'entreprise pour pouvoir fonctionner sur les appareils vendus sous sa marque. Si les informations (code source) sont effectivement disponibles, cela empêche d'utiliser l'appareil pour faire ce que l'on souhaite dessus, y compris d'installer sa propre version.
Symbian OS est pourtant sous licence libre : mais celle-ci perd toute valeur, car les appareils sont toujours bloqués et exigent d'utiliser exclusivement les programmes proposés par l'entreprise. Pour pouvoir faire des modifications, il faut ainsi demander la permission à Symbian, qui propose des régimes plus ou moins restrictifs selon le domaine concerné. Cette demande d'autorisation est payante, et surtout peut être limitée par Symbian à la modification du code sur un seul téléphone précis (identification par numéro IMEI)[11]. Ainsi, la licence libre du système d'exploitation perd toute pertinence : la liberté n'est plus que théorique et ne peut plus être mise en pratique.
L'éviction patente des logiciels libres
L'éviction des logiciels et des systèmes d'exploitations libres est patente. En effet, si les mesures de sécurité ne sont pas en elles-mêmes contraires au logiciel libre, les modalités actuelles de sa mise en œuvre renferment des dangers inéluctables pour le développement du logiciel libre. La technologie est a priori neutre, mais l'usage qui en est fait ne l'est pas toujours. Cette nouvelle technologie qui a vocation à étendre ses tentacules à l'ensemble du marché informatique, porte potentiellement en germe d'importants dangers pour la libre concurrence et l'innovation. Et pour cause, à ce jour aucune information complémentaire n'a été donné sur ce « tiers de confiance » ni sur la manière dont il est désigné. Pire encore, à l'heure d'aujourd'hui, seul Microsoft, répond à cette appellation. Dès lors quid de sa neutralité, peut-il être à la fois régulateur privé et acteur du marché ? Ainsi, force est de constater, que de facto, un logiciel quelconque qui n'aurait pu obtenir au préalable une signature référencée chez le « tiers de confiance » comme étant habilité à un usage sur le matériel informatique sera purement et simplement rejeté et donc hors de portée du consommateur. N'y a t-il pas là une absurdité aberrante ? Comment peut-on octroyer à une entreprise hégémonique sur le marché, les clés pour agréer ses propres concurrents ?
Les logiciels libres seront certainement confrontés à une seconde difficulté, en effet il sera probablement difficile d'obtenir une certification pour un logiciel dont les sources sont ouvertes et peuvent être modifiées librement.
Par ailleurs une barrière tarifaire doit également être souligné, les développeurs du Libre n'ont pas forcément les moyens ni la possibilité même de payer une certification. La lumière n'a pas encore été faite sur les conditions d'obtention d'une certification. Faut-il nécessairement avoir la personnalité morale ou encore s'inscrire dans un processus de commercialisation ? Dès lors quid des développeurs libristes passionnés qui se consacrent au développement de logiciel depuis un ordinateur personnel sans prétention aucune ? Auront-ils encore demain la possibilité de poursuivre cet hobby sans verrous ? Rien ne le garantit.
À ce jour, seuls deux éditeurs de logiciels libres ont cédé au « chantage » , il s'agit de Canonical et de Red Hat, qui ont d'ores et déjà payé pour obtenir une clé et permettre ainsi aux ordinateurs de pouvoir lancer leurs systèmes d'exploitation.
Pour le reste des solutions alternatives, celles-ci n'étant pas encore passés à la caisse, ces systèmes d'exploitations libres ne pourront pas démarrer en mode sécurisé. Et même un logiciel libre installé sur un système d'exploitation propriétaire certifié ne pourra pas démarrer dans le sous-système TCG / NGSCB de la machine. Ainsi l'existence même des logiciels libres sur le marché est gravement menacée, il va devenir rapidement impossible de faire quoique ce soit avec un logiciel libre, dès lors qui voudra d'un logiciel inutilisable ? C'est un scénario catastrophe qui présente d'importants dangers pour le logiciel libre par la remise en cause de son modèle économique et la remise en cause d'une concurrence saine sur le marché.
Enfin il n'est pas anodin de noter que le projet informatique de confiance coïncide avec l'émergence des premiers logiciels libres sur le marché notamment la première distribution de Gnu/Linux en 1992 qui est le logiciel libre au succès qu'on lui connaît. Dès lors n'y a-t-il pas là , en germe, une nouvelle stratégie d'éviction de la concurrence, en faveur du maintien d'une position monopolistique sur le marché ?
Vers un environnement entièrement contrôlé ?
Le modèle intégré d'Apple
Cette absence de choix se retrouve aussi dans le modèle économique d'Apple et dans sa stratégie d'enfermement de ses clients : les matériels Apple ne peuvent être utilisés qu'avec d'autres matériels et logiciels approuvés par Apple. Toute alternative est explicitement exclue par l'entreprise.
Ainsi, le dispositif de contrôle d'usage d'Apple vérifie chaque programme installé sur les machines, iPhone ou iPad. Chaque logiciel doit être préalablement signé par une clé de chiffrement d'Apple. À chaque installation, l'appareil vérifie auprès d'Apple si la signature est valide et, si ce n'est pas le cas ou que la signature est illisible, il refuse purement et simplement d'installer le programme. C'est également le cas si le programme a été modifié de quelque manière que ce soit. De plus, la signature est liée à un appareil précis, ce qui empêche tout partage du programme. Pire encore, Apple exige que tous les programmes soient distribués par l'Appstore pour les signer, et interdit donc explicitement tout marchand alternatif. Ce que souhaite l'auteur du programme (comme la licence sous laquelle il souhaite le distribuer) n'a plus aucune importance : pour distribuer son produit, y compris un logiciel libre, il doit obtenir une autorisation d'Apple, ce qui inclut l'obligation de se soumettre aux conditions de licences imposées par cette entreprise.
Les fonctionnalités des appareils sont donc intentionnellement limitées par le constructeur : c'est pour cela qu'a été lancée la campagne « defective by design[12] » par la Free Software Foundation, qui démontre à quel point l'iPad est une régression intentionnelle par rapport à tout ce que l'informatique offre comme possibilités aujourd'hui [13].
Certes, les possibilités de contournement existent, comme le « jailbreak »[14] de l'iPhone d'Apple. Mais elles ne sont pas autorisées par l'entreprise, entraînent la perte de la garantie, sont difficiles à mettre en œuvre et n'offrent aucune certitude quant à leur pérennité dans le temps. Surtout, ce sont des solutions de contournement qui ne changent rien à l'existence du problème.
eFuse[15], une altération du matériel en cas de contournement du contrôle d'usage
Apple, s'il est caractéristique, n'en reste pas moins un exemple parmi d'autres. La controverse autour du Droid X de Motorola en est d'ailleurs un bon exemple : ce smartphone intègre une puce eFuse qui permet d’empêcher de façon permanente l'allumage du mobile si les programmes installés ne correspondent pas à ce qui a été approuvé par Motorola. Ainsi, au nom de la lutte contre les logiciels malveillants, toute tentative de modification de programme qui ne serait pas approuvée par Motorola pourrait donc potentiellement entrainer l'impossibilité définitive d'utiliser l'appareil[16].
Globalement, ce type de mesure est paradoxal : il s'agit d'ajouter des technologies pour pouvoir faire moins qu'auparavant avec le même type d'appareil. La puce est ajoutée uniquement pour empêcher certains usages, sans apporter quoi que ce soit à l'utilisateur; Elle consomme de l'énergie et représente un coût inutile.
L'informatique déloyale ou la consécration des monopoles
L'informatique déloyale se base donc sur des « tiers de confiance », en réalité des entreprises privées qui n'ont à cœur que leurs propres intérêts, qui imposent ensuite leur desiderata aux développeurs et éditeurs de logiciels. Puisque les programmes ne peuvent fonctionner sans avoir été approuvés par le « tiers de confiance », celui-ci peut imposer toutes les conditions qu'il souhaite : financières, de licences, etc. Concrètement, quelques acteurs déjà en situation monopolistique pourraient ainsi bloquer toute alternative et donc assurer la permanence de leur monopole.
Le trou analogique, vendre la sécurité pour imposer le contrôle d'usage
L'informatique déloyale s'inscrit ainsi dans une logique où le « tiers de confiance » contrôle tout ce qui est fait avec les informations, en empêchant toute modification ou copie des données manipulées. Un tel mécanisme est cependant illusoire à mettre en œuvre : pour empêcher toute copie, il faudrait que l'information circule de manière chiffrée et non copiable sur l'ensemble de son parcours, depuis le support numérique jusqu'au cerveau de la personne qui lit l'œuvre. Cela est bien évidemment absurde : à partir du moment où l'œuvre est lue, il est possible d'utiliser un appareil d'enregistrement pour la copier. Par exemple, même si un DVD est protégé par un système de verrouillage complexe, cela n'empêchera jamais quelqu'un de filmer l'écran et d'enregistrer le son, et donc de réaliser une copie. C'est le paradoxe des tentatives de menottage numérique auxquelles on assiste de plus en plus souvent aujourd'hui : pour empêcher toute copie, il faut empêcher la lecture. Mais si on empêche la lecture, il n'y a plus d'œuvre à acheter, puisqu'il n'y a plus rien à lire !
Au-delà de cette impossibilité logique, le mode de fonctionnement de la plupart des ordinateurs rend également tout verrouillage total impossible : pour limiter les "trous" dans lesquels l'information circule en clair et pourrait être copiée, il faudrait que le déchiffrement se fasse au plus près des interfaces de sortie, par exemple dans les cartes sons ou vidéos. L'ensemble de ces dernières devraient donc intégrer les composants nécessaires au déchiffrement. Si c'est la raison pour laquelle des regroupements comme le TCG ont été créés, la collaboration entre les différents acteurs est difficile dans la pratique aujourd'hui.
Les enjeux concurrentiels : vers un verrouillage progressif du marché ?
La tentative de contrôle du marché des technologies de l'information ?
Microsoft a de tout temps eu une place hégémonique sur le marché du secteur des technologies de l'information, lui offrant toutes les commodités rêvées pour son épanouissement. Dès lors cet acteur à tout intérêt à mettre l'ensemble des moyens nécessaires afin d'asseoir cette position: du lobbying auprès de l'Éducation nationale pour ainsi prendre le consommateur au berceau, jusqu'aux mesures techniques, aujourd'hui, pour clôturer sa stratégie. Quels sont les intérêts d'une telle position, tant convoitée ?
Théoriquement, la place de leadership sur le marché ou encore mieux, de « monopoliste » offre un grand nombre d'avantages. Premièrement quant au pouvoir non négligeable d'agir sur la structure même du prix. En effet, nul ne peut ignorer la règle économique élémentaire de l'offre et de la demande à savoir que le prix résulte de la rencontre de l'offre et de la demande sur un marché donné.Or appliqué au monopole, celle-ci débouche sur le constat suivant :une multitude de demandeur face à un offreur unique. L'offreur unique est alors roi car libre d'imposer le prix qu'il souhaite. Il est « price maker » [17]. Cette situation s'oppose à celle qui existerait dans le cadre d'une concurrence pure et parfaite où l'atomicité de l'offre et de la demande évite qu'un offreur du marché soit en mesure d'influencer sa structure et le prix résulte alors de la rencontre de la multitude d'offre et de demande sur le marché. Chaque offreur est alors « price taker » [18], tout en sachant que la demande est une fonction décroissante du prix. En l'espèce, c'est-à dire appliqué au cas de Microsoft, on observe que le prix des licences c'est-à dire le droit d'utiliser les produits Microsoft, n'ont eu de cesse de croître. La première version de Windows connue sous le nom de Windows 1.01, sortie le 20 novembre 1985, était commercialisé à 99 dollars. Aujourd'hui, la dernière version commercialisé à partir du 26 octobre 2012 sous le nom de Windows 8 est disponible pour un prix moyen de 119,99 euros et 279,99 euros pour la version professionnelle. Autrement dit , entre 1985 et 2012 le prix de de la licence n'a pas fléchi mais a au contraire augmenté. Alors même que normalement le coût des technologies classiquement diminuent avec le temps et que dès lors le prix de vente devrait, dans un idéal de concurrence pure et parfaite, baisser face à la concurrence et à la démocratisation du produit. Les seules exceptions concernent les licences OEM à savoir une licence issue le plus souvent d’une vente liée :l’ordinateur a été pré-installé du logiciel Windows par le constructeur. Dans cette hypothèse ces licences qu’on oppose aux licences « en boîte » achetées directement par le consommateur, sont vendues à un prix dérisoire au constructeur chargée de l’installer en masse dans les ordinateurs fabriqués en usine avant d’être redistribué. On note à ce titre que le marché des constructeurs est lui très compétitif, dès lors les constructeurs dépendent de Microsoft pour lui vendre des licences OEM à bas coût. Microsoft a donc toutes les clés en main afin d’imposer aux constructeurs les conditions permettant le renforcement de son monopole. Par ailleurs, la seconde exception concerne l'Education nationale où les coûts de licence sont minimes voir dérisoires, qu'on pourrait assimiler à des « prix prédateurs » c'est-à-dire un prix a priori inférieur au coût de production marginal. Or dans le cadre d'un bien immatériel le coût de production marginal est quasi nul, ce qui permet à Microsoft, d'user et d'abuser de telle campagne de prix. En l'occurrence, il s'agit d'une offre de licence spécifique à l'éducation nationale, dont on peut comprendre l'intérêt. Au delà de l'idée d'accompagner le développement du numérique à l'école de manière totalement désintéressée, on peut noter que l'avantage pour Microsoft est bien entendu de permettre l'apprentissage des outils Microsoft dans les collèges et les lycées de la planète entière pour mieux permettre l'accoutumance des consommateurs voire une addiction aux produits Microsoft dès le plus jeune âge afin d'assurer la pérennité de l'éditeur unique au fil des générations. Cela témoigne bien d'une emprise si ce n'est d'une maîtrise quasi parfaite du marché par Microsoft.
Au delà même des préoccupations économiques et concurrentiels, l'enjeu est celui de la préservation de la démocratie même. Le secteur des technologies de l'information est un secteur stratégique à l'ère d'un monde ultra connecté. Ainsi la main mise d'un seul acteur, quel qui soit sur l'ensemble de ce secteur est plus que dangereux. Les technologies de l'information ont pénétré l'ensemble des foyers de la planète, ou du moins des pays développés. L'ensemble des consommateurs du monde utilisent donc au quotidien ces technologies de l'information (téléphonie mobile, email, réseaux sociaux, traitement de texte pour planifier son quotidien …).Ces profils de consommation constituent une mine d'or qui attise l'intérêt des professionnels du monde entier et on a pu l'observer ces dernières années par le développement du marketing comportemental. Les entreprises elles mêmes investissent des sommes astronomiques afin de développer leurs réseaux informatiques sur lequel repose toutes leurs activités.La technologie est aujourd'hui, plus que jamais, devenue « le nerf de la guerre ». Un marché à conquérir et pour Microsoft un marché à conserver. Dans cette optique, le secure boot n'est qu'une illustration de plus, de sa stratégie. Pour avoir une illustration concrète des stratégies d'évictions passées, nous pouvons prendre l'exemple emblématique de Netscape. Netscape était le navigateur internet qui dominait le marché dans les années 1990, son activé était pour le moins pérenne et rien ne présageait sa sortie du marché. Reste que l'arrivée d'Internet explorer sur le marché, autrement dit le navigateur internet de Microsoft, a permis l'éviction de Netscape du marché. Comment ? Microsoft aurait convaincu -ou imposer - à une grande parties des éditeurs internet de contenu que « Exporer était devenu le standard, et qu'ils avaient donc intérêt à y adapter leur sites web » [19]. Quid de la véracité de ces propos ? Microsoft est il devenu un standard ? Un standard de fait, sûrement, mais quant est-il légalement ? Il n'existe aucun standard obligatoire légalement. Mais une concurrence saine supposerait sûrement de se référer au standard ouvert définit à l'article 4 de la loi pour la confiance en l'économie numérique (LCEN)[20], laquelle définit les standards ouverts comme « tout protocole de communication, d'interconnexion ou d'échange et tout format de données interopérable et dont les spécifications techniques sont publiques et sans restriction d'accès ni de mise en œuvre. ». Or le standard de fait que représente Microsoft est loin de se plier à cette définition légale au service d'une concurrence saine sur le marché, le format de Microsoft en serait même l'antithèse en personne. Windows ne respecte pas la normalisation des formats de document et impose ses propres formats fermés qui lui offre ainsi un contrôle sur le marché. Force est de constater que, « Microsoft entrave d'interopérabilité entre les systèmes, asséchant la concurrence et ralentissant l'innovation » [21]. Microsoft mise ainsi sur les effets de réseaux c'est-à-dire sur un mécanisme d'externalité positif économique qui met en évidence le fait que l'utilité d'un bien pour un utilisateur est fonction du nombre des autres utilisateurs de ce même bien. Et les effets de réseaux sont fondamentaux dans le cadre des nouvelles technologies de l'information et de la communication. En effet, concrètement, quel serait l'intérêt d'utiliser un format de traitement de texte que je serais seul à pouvoir ouvrir rendant ainsi impossible la communication du fichier à un tiers.Microsoft en imposant son format propriétaire (par exemple «.doc») à la planète entière mise clairement sur les effets de réseaux lui permettant d'éliminer sans mal les formats concurrents dont le standard ouvert et normalisé.En somme, Microsoft ruine ainsi, consciemment d'interopérabilité pour imposer une uniformité « Microsoftienne ». Et le pire étant qu'au fil des années cette idée a pénétré les habitus de l'ensemble des consommateurs persuadés que Microsoft constitue le standard et qu'il faut donc se procurer Microsoft et le nom de ses logiciels est même passé dans le langage courant. Enfin un exemple frappant, est celui de l'accord-cadre entre Microsoft et le Ministère de la défense, où pour justifier la passation sans mise en concurrence de ce marché, le ministre de la défense avançait l'argument de l'interopérabilité et l'existence du standard Microsoft. Est ce là un aveu d'échec au plus haut sommet de l'État ? Le rapport final du groupe de travail du ministère de la défense, réunissant des représentants de l'état-major des armées, la direction interarmées des réseaux d'infrastructure et des systèmes d'information, du secrétariat général de l'administration et de la délégation générale pour l'armement, a été amené à se pencher sur l'analyse de la valeur du projet de contrat – cadre avec la Société Microsoft à la demande du cabinet du ministre de la défense. Et ce rapport pointe du doigt cette stratégie d'interopérabilité de la société, sous l'intitulé « 1.1.4 Interopérabilité et stratégie » on peut lire : « Dans sa vision à 10 ans, la société Microsoft n'a aucune stratégie multi-plateforme (Office 2007 sur la distribution Linux par exemple). Elle aborde la question de l'intéropérabilité sous l'angle de la compatibilité avec ses propres produits. De par son poids sur le marché, la société considère qu'elle représente un standard de fait. Alors que les pouvoirs publics se sont dotés de moyens pour traiter de la question de l'interopérabilité au sein de l'administration française. Microsoft s'est crée son propre conseil national pour sonder les besoins de ses clients en matière d'interopérabilité. » [22] . L'interopérabilité est ainsi devenue une arme de marché procurant un avantage concurrentiel dangereux à un éditeur unique....
Le risque d'une généralisation par la contamination des marchés dérivés
Une étude de terrain menée en 2006 [23] par Benoît Sibaud [24] révélait qu'en 2006 déjà, les modèles de pc professionnels étaient équipés de la puce TPM chez Sony, ASUS, Toshiba, HP Compaq, Lenovo, DELL, Fujitsu-Siemens et bien évidemment Apple dont tous les modèles sont équipés de cette technologie. Or quid de la transparence vis à vis des consommateurs ? L'étude révèle que les fabricants ne communiquent pas sur l'implémentation de cette technologie au sein de leurs machines ou alors présentent la technologie sous un autre jour, notamment comme étant une mesure de protection des données personnelles de l'utilisateur mais sans donner de précision quant aux éventuelles restrictions entraînées.
Par ailleurs, force est de constater que du fait de la généralisation de l'outil informatique, de plus en plus de marchés sont de facto affectés. Il ne s'agit plus seulement du seul marché des systèmes d'exploitation pour PC mais sont également concernés les systèmes d'exploitation pour serveurs, smartphones, tablettes, etc. À l'avenir Microsoft pourrait étendre ce système à tout matériel informatique : par exemple le marché des tablettes tactiles que Microsoft entend bien conquérir dans un futur proche (sa part de marché est passée de 0 % au premier trimestre 2012 à 7,5 % au premier trimestre 2013 [25]).
Aussi d'autres acteurs du marché s'inspirent de ce projet pour créer leurs propres « verrous », par exemple la société Apple utilise un mécanisme similaire pour restreindre l'installation et l'utilisation de son système d'exploitation MAC OS X sur des machines à base de processeur INTEL dont elle assure la fabrication. Concrètement cela prend la forme d'une puce TPM fournie par Apple qui doit normalement être présente sur la carte mère pour que ce système d'exploitation y soit utilisable.
Enfin le plus inquiétant est qu'à terme le projet initial TCPA entretient des liaisons dangereuses avec la question des Digital Rights Management (DRM) ou « menottes numériques », ainsi il est à craindre que le fondement même de l'informatique de confiance est à terme de mettre en place des DRM à différent stade de la chaîne informatique pour contrôler les logiciels et les documents.
Le secure boot dans le viseur
La plus récente consécration de l'informatique déloyale est connue sous le nom de « secure boot » chez Microsoft, littéralement « démarrage sécurisé » et prend le nom de « Trusted Boot » (littéralement « démarrage de confiance ») dans le projet initial du groupe TCPA. Par ce projet Microsoft est sans aucun doute sur le point de s'octroyer une mainmise stratégique au cœur de la machine, lui permettant de piloter l'ensemble du marché.
Analyse technique du secure boot : « des verrous invisibles»
Techniquement la mise sous tension d'une machine lance un processus de démarrage qui est préalable au lancement du système d'exploitation. En d'autres termes il s'agit du logiciel intermédiaire entre le micrologiciel aussi appelé Firmware et le système d'exploitation. Il a notamment pour objet de permettre à la machine de détecter l'ensemble des périphériques. Il est donc un élément essentiel de la machine . Et c'est justement ce programme de démarrage préalable essentiel au lancement de tout système d'exploitation mais aussi à la détection de tout périphérique, composant (etc.), qui est visé aujourd'hui par le projet secure boot. Microsoft a annoncé la mise en place du secure boot à partir de 2012 , plus précisément concomitamment à la commercialisation de Windows 8 lancée le 26 octobre 2012 et qui intègre bien évidemment le secure boot. Les constructeurs doivent désormais implémenter l'Unified Extensible Firmware Interface [26] (UEFI) secure boot qui succède au BIOS [27] , s'ils souhaitent obtenir une certification Windows 8 pour leurs appareils notamment pour pouvoir y mettre le logo «Compatible Windows 8 ».
Concrètement, le secure boot qu'exige Microsoft prend la forme d'un composant cryptographique matériel, qui a vocation à être implémenté au sein de tout type de matériel électronique ou informatique. Lors des premières versions de chez IBM la puce était soudée à la carte mère. Aujourd'hui Microsoft implémente les puces au sein des processeurs, donc au cœur même de la machine. La force de cette nouvelle technologie réside dans le fait qu'elle soit implémentée, ancrée, au cœur du matériel conçu pour résister à toutes les attaques extérieures L'objectif technique de cette nouvelle technologie est précisément d'empêcher le lancement de programme malveillant au démarrage ayant pour objet de désactiver les logiciels anti-programmes malveillants. Le secure boot, qui au sein de l'interface UEFI prend la forme d'une fonction, renferme ainsi la promesse d'une sécurité informatique renforcée. Et il s'agit , à juste titre, d'un moyen d'assurer une sécurisation dès le démarrage de la machine et contourner ainsi l'ingéniosité des nouveaux programmes malveillants qui s'attaquent directement à la machine au cours du chemin de démarrage en désactivant l'ensemble des logiciels ayant pour objets d'assurer la sécurité de la machine. Et pour ce faire, Microsoft a mis au cœur du secure boot un processus de certification numérique en cascade afin de s'assurer que seuls les programmes mais aussi les composants, signés et authentifiés, seront susceptibles de s'exécuter sur la machine. Cela suppose donc l'existence d'une base de données capable d'enregistrer l'ensemble des signatures numériques de l'UEFI, avant que l'élément signé puisse démarrer sur l'appareil informatique équipé du secure boot.
Cette base de données qui contient les éléments autorisés à être exécutés sur la machine repose donc sur une agrégation de certificats numériques. Un certificat numérique étant concrètement un fichier qui contient une paire de clé privé et de clé publique de chiffrement. En l'espèce, cette certification repose sur la technologie Authenticode et une infrastructure à clés publiques. Authenticode est une technologie Microsoft qui fait usage d'un chiffrement standard pour signer du code d'application avec des certificats numériques qui vérifient l'authenticité de l'éditeur du programme. Tandis que l'infrastructure à clés publiques désigne le processus permettant de gérer l'ensemble des certificats autrement dit de créer, gérer et révoquer les certificats en vue d'aboutir à un climat de confiance dans l'échange d'information. Parallèlement à cette base de données accueillant l'ensemble des clés des programmes « bienveillants », il existe une base de données contenant des bouts de codes issus de programme malveillants dont l'exécution sera bloquée par la fonction secure boot. Reste que cette dichotomie semble oublier - ou évincer – une troisième hypothèse qui n'est pas réellement prise en compte au cœur de ce mécanisme. Il s'agit des programmes choisis par l'utilisateur mais non certifiés par Microsoft. Dans la quête d'une sécurisation croissante du système informatique ce mécanisme risque d'être préjudiciable à un ensemble de concurrent émergent. Un logiciel quelconque qui n'aurait pu obtenir au préalable une signature référencée chez le « tiers de confiance » comme étant habilité à un usage sur le matériel informatique sera purement et simplement rejeté et donc hors de portée du consommateur ce qui peut poser de délicates questions concurrentielles mais également relatives à la liberté du consommateur. Par ailleurs, la technologie NGSCB irait même plus loin en permettant de s'assurer que les fichiers enregistrés par une certaine application, ne puissent être lus ou modifiés que par cette même application ou par une autre application autorisée. Microsoft nomme ce système spécifique « Sealed Storage » littéralement « stockage scellé » on pourrait tout aussi bien appeler cela « verrouillage du marché ».
Analyse juridique du secure boot : les griefs de la technologie
Plusieurs arguments juridiques pourraient être invoqués dans le cadre d'un contentieux à venir et mettre ainsi à mal la légalité même du dispositif technique dit de sécurité.
Premièrement quant à l'article 101 du Traité de Fonctionnement de l'Union Européenne [28] relatif aux règles de concurrence. Force est de constater que le secure boot étant de facto contrôlé par Microsoft, il encourt le grief de l'article b) à savoir qu'il a pour effet de "limiter ou contrôler la production, les débouchés, le développement technique ou les investissements". Et pour cause, les concurrents ne sont pas à l'abri d'un refus discrétionnaire de la part de Microsoft. Ainsi la fameuse clé signée qu'il est nécessaire d'obtenir pour être reconnu par le secure boot et que Microsoft propose à la vente pour 99 dollars, pourrait très vite devenir la clé d'accès au marché dont Microsoft se ferait "douanier". Les dérives d'un tel système sont plus qu'inquiétant pour le marché.
Par ailleurs, le point d) du même article trouverait certainement à s'appliquer dans le cadre d'un contentieux. En effet Microsoft pour se défendre avance l'argument selon lequel le secure boot serait aisément désactivable. Reste que même l'expérience des plus avisés à ce niveau montre que même en désactivant le secure boot sur les machines certifiées Microsoft, l'installation d'un système d'exploitation alternatif s'en trouve perturbé voir bloqué. Dès lors le grief pourrait être adressé aux fabricants de produits informatiques ayant implémentés le dispositif secure boot, "d'appliquer, à l'égard de partenaires commerciaux, des conditions inégales à des prestations équivalentes en leur infligeant de ce fait un désavantage dans la concurrence". Et ce désavantage est d'autant plus avéré, qu'au delà de la difficulté technique pour désactiver le secure boot et installer un système d'exploitation libre, il s'avère que concernant les appareils portables ( smartphone, tablettes etc) et donc les architectures ARM [29] il est impossible de désactiver le secure boot implémenté, la seule solution reste donc de "jailbreaker" son appareil mais il s'agit d'une pratique illégale et le consommateur perd dans ce cas le droit à la garantie du téléphone, ce qui peut dérouter plus d'un consommateur qui se résignera alors, contre son gré, au seul système qu'on lui impose.
Enfin le point e) du présent article peut également être invoqué, en effet celui-ci dénonce comme étant une pratique incompatible avec le marché intérieur le fait de "subordonner la conclusion de contrats à l'acceptation, par les partenaires, de prestations supplémentaires qui, par leur nature ou selon les usages commerciaux, n'ont pas de lien avec l'objet de ces contrats". Or la pratique de Microsoft tombe parfaitement sous le coup de cet article dans la mesure où Microsoft impose à l'ensemble des fabricants les plus éminents du marché d'implémenter le secure boot pour avoir le droit d'apposer le logo Microsoft sur les appareils vendus alors même qu'a priori il n'y a aucune nécessité à cela pour la commercialisation de leurs produits. Cela peut s'apparenter à du chantage pur et simple, notamment du fait de la position dominante de Microsoft face à laquelle les fabricants sont forcés de plier. Aussi cela s'inscrit dans la suite logique de la stratégie Microsoft qui consiste a proposer la vente de ses logiciels aux fabricants à des prix dérisoires qu'on pourrait assimiler à des prix "prédateurs" qui conduisent depuis des décennies à des pratiques de ventes liées imposés au consommateur (pack ordinateur et logiciel Microsoft).
Nul ne peut ignorer la position dominante de Microsoft sur le marché en cause, puisque cet éditeur de logiciel hégémonique détient à lui seul 95 % des parts sur le marché du Pc depuis 20 ans [30]. Dès lors l'abus de position dominante n'est jamais bien loin.
La domination est pour ainsi dire, une situation de fait que le droit tente d'appréhender. C'est dans cette optique que la Cour de Justice des Communautés Européennes [31] définie cette situation factuelle par un standard jurisprudentiel. Ce standard a été déterminé à l'origine dans la décision United Brands rendu par la Cour de Justice de la Communauté Européenne (CJCE) le 14 février 1978 [32] , reprise par celle d’Hoffmann - La Roche rendu par la même cour le 13 février 1979 [33]. Dès lors ce standard jurisprudentiel [34] laisse place à des exemples diverses et variés d'abus potentiels qui peuvent inclure tant le refus de vendre, que des prix prédateurs ou encore la rupture abusive des relations commerciales.
Concernant Microsoft, la firme a déjà fait l'objet d'une condamnation par la Commission Européenne le 24 mars 2004 sur le fondement de l'ancien article 82 du Traité de la Communauté Européenne (TCE). En l'espèce une affaire dans laquelle Microsoft avait refusé de fournir à son concurrent Sun Microsystems, les informations nécessaires à l'interopérabilité de son système avec des systèmes concurrents et d'en autoriser l'utilisation aux fins du développement et de la distribution de systèmes d'exploitation pour serveur de groupe de travail. En d'autres termes Microsoft avait été alors condamnée pour l'usage de sa position dominante sur le marché afin de « limiter les choix des consommateurs sur certains marchés connexes de celui des systèmes d'exploitation des PC » [35] .
À la suite de cette affaire, la Commission a ouvert une procédure et menée une enquête plus générale sur les conditions de commercialisation de Windows 2000 par Microsoft. À cette occasion la société Microsoft a elle même reconnu qu'elle détenait une position dominante sur le marché de plus de 90 % à ce moment là.
La technologie Secure boot de Microsoft encourt potentiellement le même grief conformément à l'article 102 du TFUE. Premièrement quant au point b) de la disposition, comme nous l'avons démontré précédemment à travers l'identification des dangers pour le consommateur il ne fait nul doute que la technologie secure boot à pour conséquence d'opérer un tri discrétionnaire des systèmes d'exploitations. À ce titre, l'atteinte à la concurrence peut être corrélé d'une atteinte à l'innovation au détriment du consommateur. Notamment en raison du fait que l'arrivée de nouveaux concurrents à normalement pour effet de stimuler la concurrence, ce qui poussent dès lors les entreprises à investir dans la recherche et le développement pour survivre à la compétition. Or le secure boot empêche justement la concurrence de se développer, il freine donc l'innovation au préjudice du consommateur qui se trouve de facto privé des éventuelles innovations de solutions alternatives et du bien être social que ces innovations peuvent produire. Enfin les points c) et d) du présent article peuvent être invoqués pour les mêmes raisons que vu précédemment concernant les points d) et e) de l'article 101 du TFUE identiques.
Références
- ↑ voir par exemple http://www.trustedcomputinggroup.org/resources/five_great_reasons_to_adopt_trusted_computing : "There are, of course, valid objections on the basis of that it is a closed chip, and although it could be implemented using Open Source software who is to say that there are no hidden backdoors in the implementation. However, a similar argument can be made for just about any computer system available, so if you can get past that mental block, here are five great reasons to get excited about Trusted Computing [...]"
- ↑ Voir par exemple leur site
- ↑ on étend donc les mesures de contrôle d'usage déjà existantes avec les DRM sur des œuvres données au contrôle de l'équipement : par exemple, une licence OEM Windows ne peut être valable que pour une carte mère et (parfois) un disque dur donnés : toute modification du système sera refusée par le système d'exploitation.
- ↑ Voir par exemple Sony, qui a décidé en juin 2010 de supprimer l'option « OS alternatif » qui permettait d'avoir le système d'exploitation Linux sur la console Play Station 3[ http://www.zdnet.fr/actualites/linux-sur-la-console-ps3-c-est-fini-a-decide-sony-39750447.htm sans laisser le choix aux utilisateurs].
- ↑ Voir ci-dessous les exemples de l'iPhone et d'eFuse
- ↑ voir par exemple : « Activer ou désactiver le module de plateforme sécurisée » http://technet.microsoft.com/fr-fr/library/cc754524.aspx
- ↑ pour plus d'information, lire l'analyse de Benjamin Sonntag.
- ↑ General Public License, Licence Publique Générale http://www.april.org/fr/quest-ce-que-la-gpl
- ↑ pour plus d'informations, voir notamment http://www.gnu.org/licenses/rms-why-gplv3.fr.html
- ↑ http://www.gnu.org/licenses/quick-guide-gplv3.fr.html
- ↑ Pour plus d'information, voir le site de Symbian : https://www.symbiansigned.com/app/page
- ↑ http://www.defectivebydesign.org/
- ↑ Voir notamment sur cette campagne http://www.framablog.org/index.php/post/2010/02/12/ipad-is-bad-apple-1984
- ↑ L'expression « jailbreak » désigne littéralement l'évasion. Elle est couramment utilisée pour désigner le contournement des mesures de restriction imposées par Apple.
- ↑ En français, fusible électronique.
- ↑ Pour plus d'information, voir par exemple cette dépêche
- ↑ littéralement faiseur de prix
- ↑ littéralement « preneur de prix »
- ↑ Hold up planétaire:Roberto Di Cosmo et Dominique Nora, Éditions zéro heure,page 19
- ↑ voir: http://www.legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000000801164&dateTexte=&categorieLien=id
- ↑ Windows seven : contrôle d'usage et captation de clientèle livrés en standard », Communiqué de Presse April,le 22 octobre 2009 [1]
- ↑ « Rapport Final du groupe de travail ministériel « partenariat sur les logiciels » ,rendu le 15 juin 2007, page 13
- ↑ https://linuxfr.org/news/tcpatpm-la-d%C3%A9ferlante-silencieuse
- ↑ Benoit Sibaud, ingénieur, Président de l'April de 2004 à 2010
- ↑ http://frawin.com/constructeur-2/microsoft/2013/14900_windows-8-represente-7-5-du-marche-des-tablettes.html
- ↑ �« Interface Micrologicielle Extensible Unifiée »
- ↑ « Basic Input Output System » : ensemble de fonction contenus dans la mémoire morte (ROM) de la carte mère. Il est aujourd'hui jugé obsolète au regard des avancées technologiques, depuis 2012 une transition de l'ensemble de l'industrie informatique vers l'UEFI a été amorcé.
- ↑ http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:C:2008:115:0047:0199:fr:PDFTFUE)
- ↑ Processeur dominant pour la téléphonie mobile et les tablettes
- ↑ http://economie.lefigaro.fr/_societes/pc-part-de-marche-microsoft.html
- ↑ devenue la Cour de Justice de l'Union Européenne depuis l'entrée en vigueur du Traité de Lisbonne le 1er décembre 2009
- ↑ http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=CELEX:61976CJ0027:FR:HTML
- ↑ http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=CELEX:61976CJ0085:FR:HTML
- ↑ « la position dominante visée à l’article 82 du traité sur la Communauté européenne concerne la situation de puissance économique détenue par une entreprise qui lui donne le pouvoir de faire obstacle au maintien d'une concurrence effective sur le marché en cause, en lui fournissant la possibilité de comportements indépendants vis-à-vis de ses concurrents.Pour que le comportement fasse l’objet d’une sanction par une autorité de concurrence (ou par un juge), l’entreprise doit abuser de sa position. L’abus se caractérise par les comportements d'une entreprise en position dominante qui sont de nature à influencer la structure du marché, où, à la suite précisément de la position de l'entreprise en question, le degré de concurrence est déjà affaibli, et qui ont pour effet de faire obstacle, par le recours à des moyens différents de ceux qui gouvernent la compétition normale des produits ou des services sur la base des prestations des opérateurs économiques, au maintien du degré de concurrence existant encore sur le marché ou au développement de cette concurrence » - définition jurisprudentielle de l'abus de position dominante
- ↑ « Décision Microsoft : le difficile bilan économique de l'obligation d'interopérabilité » par Christian MONTET, Revue Lamy de la concurrence 200817