« Synthèse informatique déloyale » : différence entre les versions

De April MediaWiki
Aller à la navigationAller à la recherche
(Nouvelle page : <quote> If we built a world in which access to digital content were ubiquitously governed by DRM systems, then giving Hollywood the exclusive licence to publish would mean a return t...)
 
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
<quote> If we built a world in which access to digital content were ubiquitously governed by DRM systems, then giving Hollywood the exclusive licence to publish would mean a return to the digital Middle Ages. Giving the same digital authorship rights to all individuals, instead, would restore some of the freedom that the Web originally introduced.</quote>
« ''If we built a world in which access to digital content were ubiquitously governed by DRM systems, then giving Hollywood the exclusive licence to publish would mean a return to the digital Middle Ages. Giving the same digital authorship rights to all individuals, instead, would restore some of the freedom that the Web originally introduced.'' »
Security For Whom? The Shifting Security Assumptions Of Pervasive Computing - Frank Stajano, University of Cambridge, http://www-lce.eng.cam.ac.uk/~fms27/
 
Security For Whom? The Shifting Security Assumptions Of Pervasive Computing Frank Stajano, University of Cambridge, http://www-lce.eng.cam.ac.uk/~fms27/
 
 


== Introduction ==
== Introduction ==

Version du 20 juillet 2010 à 14:02

« If we built a world in which access to digital content were ubiquitously governed by DRM systems, then giving Hollywood the exclusive licence to publish would mean a return to the digital Middle Ages. Giving the same digital authorship rights to all individuals, instead, would restore some of the freedom that the Web originally introduced. »

Security For Whom? The Shifting Security Assumptions Of Pervasive Computing — Frank Stajano, University of Cambridge, http://www-lce.eng.cam.ac.uk/~fms27/


Introduction

l'expression « informatique de confiance » désigne un ensemble de dispositifs de contrôle d'usage qui allient matériel et logiciel ainsi qu'un procédé cryptographique. Il s'agit souvent d'une puce électronique qui permet d'identifier les composants et les programmes installés sur la machine. Cette puce peut alors autoriser ou interdire la mise en place de tout matériel ou logiciel en se basant sur leur signature et sur un régime d'autorisation/d'interdiction. L'utilisateur n'a pas accès aux informations cryptées.

L'informatique de confiance est vendue par ses promoteurs comme un moyen de sécurisation par le contrôle à chaque démarrage de l'ensemble des processus et matériels présents. Cela permet la désactivation de ce qui n'est pas considéré comme étant « de confiance ». C'est cependant les conditions de cette confiance qui pose problème. Dans le cadre de l'informatique déloyale, ce n'est plus l'utilisateur qui décide de faire confiance, mais une entreprise privée, un « tiers de confiance ». Ce tiers, dont on ne sait rien, d'autant que les échanges sont cryptés, a le contrôle final sur l'ordinateur, et l'utilisateur n'a plus de recours.

Dans la mesure où l'approbation de ce tiers « de confiance » est nécessaire pour faire fonctionner tout programme, les logiciels libres ne peuvent s'inscrire dans le cadre de l'informatique de confiance, à la fois pour des raisons qui tiennent à la nature même du logiciel libre que par le refus des acteurs de l'informatique de confiance de voir le logiciel libre intégré dans cette logique[1].

Il est difficile d'évaluer l'impact de l'informatique déloyale, car celle-ci englobe des techniques en cours de développement et non appliquées. Pour autant, on peut estimer que les principaux risques potentiels incluent :

  • l'absence de contrôle par l'utilisateur de ce qui est fait par sa propre machine, et l'obligation de se conformer aux exigence du "tiers de confiance", y compris si les conditions d'utilisations sont modifiées a posteriori
  • une utilisation non pour la sécurité privée, mais pour mettre en place des dispositifs de contrôle d'usage, de tous les usages - notamment pour l'application des DRM souhaitées par les grandes majors de l'industrie du divertissement.
  • l'interdiction pour les utilisateurs d'utiliser certains logiciels ou de désactiver des mesures de contrôle d'usage, voire le risque de blocage de la machine en cas de tentative de désactivation
  • la perte du contrôle de leurs propres données par les utilisateurs, et le risque en cas de défaillance technique de perdre toutes ses données irrévocablement
  • la possibilité d'interdire tout anonymat
  • la limitation, voire l'interdiction de l'interopérabilité
  • l'exclusion des produits concurrents sans possibilité de recours


Définition

Le nom vient du "Trusted Computing Group"[2] (groupe de l'informatique de confiance), un consortium d'entreprises informatiques qui souhaite développer mes moyens de "sécurisation" (en réalité, de contrôle d'usage) des équipements informatiques. Dans la mesure où il s'agit de projets privés, il n'y a donc pas de définition légale ou juridique précise, et ses limites restent donc floues.

De manière générale, le terme d'informatique "de confiance" désigne aujourd'hui plusieurs projets, parallèles et/ou concurrents, qui cherchent à mettre en place des mesures de contrôles d'usage, généralement en associant matériel et logiciel. Les plus connus sont Palladium, devenu NGSCB ("Next Generation Secure Computing Base" Base d'information sécurisée de nouvelle génération) et TCPA ("Trusted Computing Platform Alliance", Plateforme d'Alliance de l'informatique de confiance).


Big Brother, quand la technique se retourne contre l'utilisateur

culture du secret de perte de contrôle

Le premier danger de l'informatique déloyale est la perte du contrôle de sa propre machine. Les constructeurs affirment actuellement qu'il y a aura une possibilité de contournement des mesures mises en place, et que l'utilisateur pourra faire fonctionner un programme affiché comme n'étant pas de confiance. Mais rien ne garantit que ces possibilités seront maintenues dans le temps, d'autant que l'idée d'une puce dont on connaitrait les spécifications techniques est rejetée en bloc par les entreprises les commercialisant.

Plus généralement, cette culture du secret empêche l'utilisateur de savoir ce qui est fait avec sa propre machine, en utilisant des procédés cryptographiques auquel il n'a pas accès. L'argumentation des fabricants veut que si les informations sont disponibles pour l'utilisateur, cela compromet la sécurité car les informations seraient également disponibles pour des programmes malveillants.

Dans un premier temps, certains vont étudier le matériel et le logiciel pour comprendre leur fonctionnement par ingéniérie inverse. Mais étant donné la complexité de ce système ainsi que les coûts de telles études (le premier étant l'achat du matériel), ces études seront de moins en moins nombreuses et finiront par disparaitre.

pourquoi le public l'accepterait ?

La première raison s'approche de la vente liée : il pourrait ne plus y avoir de choix pour les consommateurs, la totalité des machines sur le marché pourraient intégrer les puces en question. De plus, certains programmes, certains fichiers pourraient n'être ouverts que par des logiciels répondant aux normes de sécurités de l'informatique déloyale; c'est-à-dire que vous ne pourriez plus jouer à votre jeu préféré, ou même lire des DVDs ou des albums musicaux distribués par certaines compagnies, si vous ne possédez pas d'ordinateur tatoué et dans lequel la puce certifie votre matériel, ce qui crérait une incitation forte à les accepter.

Pire encore, certains utilisateurs se satisferaient sans doute d'être soumis à ces techniques au nom de la sécurité. Puisque tous les processus sont vérifiés ex ante, la présence de logiciels malveillants serait limitée par la mise en place d'une liste blanche. Plutôt que d'interdire à postériori ce qui est nocif pour l'ordinateur, celui ci ne pourra plus faire que ce qui est préalablement utilisé.

Ces régressions des libertés au nom d'une sécurité qui resterait largement illusoire (des moyens de contournement seront sans doute créés par la suite) sont innacceptables et mettent en danger l'existence même d'un choix libre concernant les programmes et logiciels. De telles mesures pourraient détruire l'ensemble du logiciel libre en tant que tel, par exemple par la mise en place d'une liste blanche qui ne serait plus que les programmes émanant d'un seul groupe d'entreprise et qui interdirait tout autre programme. Mais cela passe aussi par des mécanismes plus généraux, notamment d'approbation des logiciels par une société privée, ce qui représenterait une forte barrière à l'entrée et empêcherait la plupart des modifications de logiciels libres telles qu'elles existent aujourd'hui.


La Tivoisation du monde - le risque de l'irrelevance du logicel libre ?

définition de la tivoisation

L'expression de "tivoisation" vient de l'entreprise américaine Tivo, un des plus gros constructeurs de magnétoscope numérique. Le magnétoscope est fondé sur des logiciels libres sous GPL. Mais même si les sources sont disponibles, il est impossible pour les utilisateurs de modifier le programme pour améliorer les usages; le matériel contrôle en effet que le logiciel correspond bien à celui qui a été validé par la firme, par une clé de chiffrement numérique. Les utilisateurs ne peuvent donc pas utiliser leur logiciel modifié. En d'autres termes, c'est le matériel qui empêche l'exercice de la liberté sur le logiciel. La tivoïsation est donc un néologisme, qui désigne l'utilisation de logiciels libres sur un matériel verrouillé[3].

Que les logiciels soient libres ou non n'a plus aucune importance : quelles que soit leurs conditions de licence, la mise en place d'un tel contrôle d'usage réduit à néant les libertés. C'est d'ailleurs pour cela qu'est actuellement en cours de rédaction la version 3 de la licence GPL, qui interdit l'introduction de dispositifs de contrôle d'usage dans les programmes.

la GPL v3, réponse à la tivoisation ?

Pour écarter les dangers de la tivoïsation, la GPL[4] v3[5] a été écrite, en posant comme principe que si la mise en place de DRM n'est pas interdite en tant que telle, il doit être possible d'enlever toute fonctionnalité non souhaitée. En d'autres termes, pluto que d'interdire les mesures de contrôle d'usage, elle s'assure de la possibilité pour les utilisateurs de contourner de telles mesures. Il s'agit donc de mantenir les libertés de tous les utilisateurs : ceux qui souhaitent garder l'environnement limité et contrôlé peuvent le faire, mais ceux qui souhaitent s'en affranchir ne sont plus empêchés de le faire.


Vers un environnement entièrement contrôlé : l'exemple d'Apple

le modèle intégré d'Apple

[TODO : transition]

Le système de DRM d'Apple contrôle les programmes qui sont installés sur les machines, iphone ou ipad. Chaque programme doit être préalablement signé par une clé cryptographique d'Apple. A chaque installation, l'appareil vérifie auprès d'Apple si la signature est valide, et si ce n'est pas le cas, ou que la signature est illisible, il refusera purement et simplement d'installer le programme. Idem si le programme a été modifié, et ce de quelque manière que ce soit. De plus, la signature lie la signature et un appareil précis, ce qui empêche tout partage du programme. Pire encore, Apple exige que tous les programmes soient distribués par l'Appstore pour les signer; ce que souhaite l'auteur du programme par ailleurs, ou la licence sus laquelle il souhaite distribuer le programme n'a plus aucune importance. Tout cela au nom de la sécurité.

Les possibilités de contournement certes existent, comme par exemple le jailbreak de l'iphone d'Apple. Mais elle sont difficiles à mettre en oeuvre, on n'a aucune certitude quand à leur pérennité dans le temps. Par définition ce ne sont pas des solutions approuvées, donc aucune garantie sur leur pérennité, et surtout ce sont des solutions de contournement, qui ne change en rien l'existence du problème.

[ TODO : mentionner defective by design ]

autre exemple

Apple, s'il est caractéristique, n'en reste pas moins qu'un exemple parmi d'autres. La contorverse autour du Droid X de Motorola en est d'ailleurs un autre exemple : ce smartphone intègre une puce eFuse qui permet d'empêche de façon permanente l'allumage du téléphone si les programmes installés ne correspondent pas à ce qui a été approuvé par Motorola. Ainsi, au nom de la lutte contre les logiciels malveillant, toute tentative de modification de programme qui ne serait pas approuvée par Motorola pourrait donc potentiellement entraîner l'impossibilité définitive d'utiliser l'appareil[6].


informatique déloyale, donner le pouvoir aux monopole contre toute solution émergente/alternative

= forme de conclusion concrètement, toute solution innovante ou alternative pourrait donc être bloquée par les "tiers de confiance" qui ne souhaiterai pas la voir mise en place. Distortion de concurrence, contrôle à l'entrée par les plus grands acteurs de ceux qui pourraient prendre leur place, ce qui aboutit in fine au blocage de toute alternative.

Références

  1. voir par exemple http://www.trustedcomputinggroup.org/resources/five_great_reasons_to_adopt_trusted_computing : "There are, of course, valid objections on the basis of that it is a closed chip, and although it could be implemented using Open Source software who is to say that there are no hidden backdoors in the implementation. However, a similar argument can be made for just about any computer system available, so if you can get past that mental block, here are five great reasons to get excited about Trusted Computing."
  2. Voir par exemple leur site http://www.trustedcomputinggroup.com
  3. pour plus d'information, lire l'analyse de Benjamin Sonntag http://blog.fdn.fr/post/2010/05/31/logiciel-de-controle-Hadopi-Tivoisation-et-libertes-mat%C3%A9rielles
  4. General Public License, Licence Publique Générale http://www.april.org/fr/quest-ce-que-la-gpl
  5. pour plus d'informations, voir notamment http://www.gnu.org/licenses/rms-why-gplv3.fr.html
  6. pour plus d'information, voir par exemple http://linuxfr.org/2010/07/16/27129.html