« Synthèse informatique déloyale » : différence entre les versions
Ligne 49 : | Ligne 49 : | ||
Le premier danger de l'informatique déloyale est la perte du contrôle de sa propre machine. Les constructeurs affirment actuellement qu'il y a aura une possibilité de contournement des mesures mises en place, et que l'utilisateur pourra faire fonctionner un programme affiché comme n'étant pas de confiance. Mais rien ne garantit que ces possibilités seront maintenues dans le temps, d'autant que l'idée d'une puce dont on connaitrait les spécifications techniques est rejetée en bloc par les entreprises les commercialisant. | Le premier danger de l'informatique déloyale est la perte du contrôle de sa propre machine. Les constructeurs affirment actuellement qu'il y a aura une possibilité de contournement des mesures mises en place, et que l'utilisateur pourra faire fonctionner un programme affiché comme n'étant pas de confiance. Mais rien ne garantit que ces possibilités seront maintenues dans le temps, d'autant que l'idée d'une puce dont on connaitrait les spécifications techniques est rejetée en bloc par les entreprises les commercialisant. | ||
Plus généralement, cette culture du secret empêche l'utilisateur de savoir ce qui est fait avec sa propre machine, en utilisant des procédés cryptographiques | Plus généralement, cette culture du secret empêche l'utilisateur de savoir ce qui est fait avec sa propre machine, en utilisant des procédés cryptographiques auxquelx il n'a pas accès. L'argumentation des fabricants veut que si les informations sont disponibles pour l'utilisateur, cela compromet la sécurité car les informations seraient également disponibles pour des programmes malveillants. | ||
Dans un premier temps, certains vont étudier le matériel et le logiciel pour comprendre leur fonctionnement par ingénierie inverse. Mais étant donné la complexité de ce système ainsi que les couts de telles études (le premier étant l'achat du matériel), ces études seront de moins en moins nombreuses et finiront par disparaitre. | Dans un premier temps, certains vont étudier le matériel et le logiciel pour comprendre leur fonctionnement par ingénierie inverse. Mais étant donné la complexité de ce système ainsi que les couts de telles études (le premier étant l'achat du matériel), ces études seront de moins en moins nombreuses et finiront par disparaitre. |
Version du 16 août 2010 à 15:32
« If we built a world in which access to digital content were ubiquitously governed by DRM systems, then giving Hollywood the exclusive licence to publish would mean a return to the digital Middle Ages. Giving the same digital authorship rights to all individuals, instead, would restore some of the freedom that the Web originally introduced. »
" Si nous construisons un monde dans lequel l'accès aux contenus numériques est contrôlé par les DRM (gestion des droits numériques), donner à Hollywood le droit exclusif de publier signifierait un retour vers l'age de pierre du numérique. Donner ce même droit numérique à tous les individus serait au contraire le moyen de restaurer la liberté qu'Internet avait instauré à ses débuts. "
Security For Whom? The Shifting Security Assumptions Of Pervasive Computing — Frank Stajano, University of Cambridge, http://www-lce.eng.cam.ac.uk/~fms27/
Cette page présente un texte de synthèse en cours de réalisation.
Si vous souhaitez participer, n'hésitez pas à laisser votre avis sur la page de discussion en suivant au mieux ces recommandations.
Introduction
L'expression « informatique de confiance » désigne un ensemble de dispositifs de contrôle d'usage qui allient matériel et logiciel ainsi qu'un procédé cryptographique. Il s'agit souvent d'une puce électronique qui permet d'identifier les composants et les programmes installés sur la machine. Cette puce peut alors autoriser ou interdire la mise en place de tout matériel ou logiciel en se basant sur leur signature et sur un régime d'autorisation/interdiction. L'utilisateur n'a pas accès aux informations cryptées.
L'informatique de confiance est vendue par ses promoteurs comme un moyen de sécurisation par le contrôle à chaque démarrage de l'ensemble des processus et matériels présents. Cela permet la désactivation de ce qui n'est pas considéré comme étant « de confiance ». Ce sont cependant les conditions de cette confiance qui posent des problèmes. Dans le cadre de l'informatique déloyale, ce n'est plus l'utilisateur qui décide de faire confiance, mais une entreprise privée, un « tiers de confiance ». Ce tiers, dont on ne sait rien, d'autant que les échanges sont chiffrés, a le contrôle final de l'ordinateur, et l'utilisateur n'a plus aucun recours.
Dans la mesure où l'approbation de ce tiers « de confiance » est nécessaire pour faire fonctionner tout programme, les logiciels libres ne peuvent s'inscrire dans le cadre de l'informatique de confiance, autant pour des raisons qui tiennent à la nature même du logiciel libre que par le refus des acteurs de l'informatique de confiance de voir le logiciel libre intégré dans cette logique[1].
le trou analogique
La logique de l'informatique déloyale voudrait ainsi que le « tiers de confiance » contrôle tout ce qui est fait avec les informations, en empêchant toute modification ou copie, ce qui est cependant impossible à mettre en œuvre. En effet, pour empêcher toute copie il faudrait que l'information circule de manière chiffrée et non copiable sur l'ensemble de son parcours, depuis le support numérique jusqu'au cerveau de la personne qui lit l'œuvre. Cela est bien évidemment impossible : à partir du moment où l'œuvre est lue, il est possible d'utiliser un appareil d'enregistrement pour la copier. Par exemple, même si un DVD est protégé par un système de verrouillage complexe, cela n'empêche pas quelqu'un de filmer l'écran et d'enregistrer le son, et donc de réaliser une copie. C'est le paradoxe des tentatives de menottage numérique auxquelles on assiste de plus en plus souvent aujourd'hui : pour empêcher toute copie, il faut empêcher la lecture. Mais si on empêche la lecture, il n'y a plus d'œuvre à acheter, puisqu'il n'y a plus rien à lire !
Au-delà de cette impossibilité logique, le mode de fonctionnement de la plupart des ordinateurs rend aussi le verrouillage total impossible : pour limiter les "trous" dans lesquels l'information circule en clair et pourrait être copiée, il faudrait que le déchiffrement se fasse juste avant la sortie analogique, c'est-à-dire dans les cartes sons ou vidéos. L'ensemble de ces dernières devraient donc intégrer les composants nécessaires au déchiffrement. Si c'est la raison pour laquelle des regroupements comme de TCP ont été créés, la diversité des acteurs du marché des composants fait qu'il semble irréaliste actuellement de mettre en place de telles méthodes.
Définition
Le nom vient du "Trusted Computing Group"[2] (groupe de l'informatique de confiance), un consortium d'entreprises informatiques qui souhaite développer les moyens de "sécurisation" (en réalité, de contrôle d'usage) des équipements informatiques. Dans la mesure où il s'agit de projets privés, il n'y a donc pas de définition légale ou juridique précise, et ses limites restent donc variables car elles peuvent inclure de nombreux processus toujours plus intrusifs.
De manière générale, le terme d'informatique "de confiance" désigne aujourd'hui de nombreux projets, parallèles et/ou concurrents, qui cherchent à étendre le contrôle d'usage effectué sur les logiciels et les données en direction du matériel. Les plus connus sont Palladium, devenu NGSCB ("Next Generation Secure Computing Base" Base d'information sécurisée de nouvelle génération) et TCP (Trusted Computing Group, ex TCPA pour "Trusted Computing Platform Alliance", Plateforme d'Alliance de l'informatique de confiance).
Les formes de l'informatique déloyale
Il est difficile d'évaluer l'impact de l'informatique déloyale, car celle-ci englobe des techniques en cours de développement et non appliquées. Pour autant, certaines de ses conséquences pourraient être :
- l'absence de contrôle par l'utilisateur de ce qui est fait par sa propre machine, et l'obligation de se conformer aux exigence du tiers dit "de confiance"
- les conditions d'utilisation du matériel peuvent être modifiées a posteriori et sans aucun recours possible[3]
- une utilisation non pas pour la sécurité privée, mais pour mettre en place des dispositifs de contrôle d'usage, de tous les usages — notamment pour l'application des DRM souhaitées par les majors de l'industrie du divertissement
- l'interdiction aux utilisateurs de choisir leurs logiciels ou de désactiver des mesures de contrôle d'usage, voire risque de blocage de la machine en cas de tentative de désactivation[4].
- la perte du contrôle de leurs propres données par les utilisateurs, et le risque en cas de défaillance technique de perdre toutes ses données irrévocablement
- la possibilité pour une entreprise d'entrer dans la vie privée des utilisateurs, voire d'interdire l'anonymat
- l'exclusion des produits concurrents sans possibilité de recours
Big Brother, quand la technique se retourne contre l'utilisateur
Entre culture du secret et perte de contrôle de sa machine par l'utilisateur
Le premier danger de l'informatique déloyale est la perte du contrôle de sa propre machine. Les constructeurs affirment actuellement qu'il y a aura une possibilité de contournement des mesures mises en place, et que l'utilisateur pourra faire fonctionner un programme affiché comme n'étant pas de confiance. Mais rien ne garantit que ces possibilités seront maintenues dans le temps, d'autant que l'idée d'une puce dont on connaitrait les spécifications techniques est rejetée en bloc par les entreprises les commercialisant.
Plus généralement, cette culture du secret empêche l'utilisateur de savoir ce qui est fait avec sa propre machine, en utilisant des procédés cryptographiques auxquelx il n'a pas accès. L'argumentation des fabricants veut que si les informations sont disponibles pour l'utilisateur, cela compromet la sécurité car les informations seraient également disponibles pour des programmes malveillants.
Dans un premier temps, certains vont étudier le matériel et le logiciel pour comprendre leur fonctionnement par ingénierie inverse. Mais étant donné la complexité de ce système ainsi que les couts de telles études (le premier étant l'achat du matériel), ces études seront de moins en moins nombreuses et finiront par disparaitre.
Dissimulation des objectifs et absence de choix : comment faire accepter l'informatique déloyale au grand public
Face aux multiples dangers que représentent l'informatique déloyale, se pose la question de l'acceptation par les consommateurs de telles restrictions de libertés : pourquoi et comment de telles mesures pourraient-elles être acceptées ? La première raison s'approche de la vente liée : il pourrait ne plus y avoir de choix pour les consommateurs, la totalité des machines sur le marché pourraient intégrer les puces en question. De plus, certains programmes, certains fichiers pourraient n'être ouverts que par des logiciels répondant aux normes de sécurité de l'informatique déloyale ; c'est-à-dire que vous ne pourriez plus jouer à votre jeu préféré, ou même lire des DVD ou des albums musicaux distribués par certaines compagnies, si vous ne possédez pas d'ordinateur tatoué et dans lequel la puce certifie votre matériel, ce qui créerait une incitation forte à les accepter.
Pire encore, certains utilisateurs se satisferaient sans doute d'être soumis à ces techniques au nom de la sécurité. Puisque tous les processus sont vérifiés ex ante, la présence de logiciels malveillants serait limitée par la mise en place d'une liste blanche. Plutôt que d'interdire a posteriori ce qui est nocif pour l'ordinateur, celui ci ne pourra plus faire que ce qui est préalablement utilisé.
Ces régressions des libertés au nom d'une sécurité qui resterait largement illusoire (des moyens de contournement seront sans doute créés par la suite) sont inacceptables et mettent en danger l'existence même d'un choix libre concernant les programmes et logiciels. De telles mesures pourraient détruire l'ensemble du logiciel libre en tant que tel, par exemple par la mise en place d'une liste blanche qui ne serait plus que les programmes émanant d'un seul groupe d'entreprises et qui interdirait tout autre programme. Mais cela passe aussi par des mécanismes plus généraux, notamment d'approbation des logiciels par une société privée, ce qui représenterait une forte barrière à l'entrée et empêcherait la plupart des modifications de logiciels libres telles qu'elles existent aujourd'hui.
La Tivoisation du monde - le risque de l'irrelevance du logiciel libre ?
Définition de la tivoisation
L'expression de "tivoisation" vient de l'entreprise américaine Tivo, un des plus gros constructeurs de magnétoscopes numériques. Le magnétoscope repose sur l'utilisation logiciels libres sous GPL. Mais même si les sources sont disponibles, il est impossible pour les utilisateurs de modifier le programme pour améliorer les usages ; le matériel contrôle en effet que le logiciel correspond bien à celui qui a été validé par la firme, par une clé de chiffrement numérique. Les utilisateurs ne peuvent donc pas utiliser leur logiciel modifié. En d'autres termes, c'est le matériel qui empêche l'exercice de la liberté sur le logiciel. La tivoisation est donc un néologisme, qui désigne l'utilisation de logiciels libres sur un matériel verrouillé[5].
Que les logiciels soient libres ou non n'a plus aucune importance : quelles que soient leurs conditions de licence, la mise en place d'un tel contrôle d'usage réduit à néant les libertés.
La GPL v3, réponse à la tivoisation ?
Pour écarter les dangers de la tivoisation, la GPL[6] v3[7] a été écrite, en posant comme principe que si la mise en place de DRM n'est pas interdite en tant que telle, il doit être possible d'enlever toute fonctionnalité non souhaitée. En d'autres termes, plutôt que d'interdire les mesures de contrôle d'usage, elle s'assure de la possibilité pour les utilisateurs de contourner de telles mesures. Il s'agit donc de maintenir les libertés de tous les utilisateurs : ceux qui souhaitent garder l'environnement limité et contrôlé peuvent le faire, mais ceux qui souhaitent s'en affranchir ne sont plus empêchés de le faire.
Cela permet donc aux utilisateurs d'avoir le choix, ce que l'informatique déloyale ne permet généralement pas.
Vers un environnement entièrement contrôlé ?
Le modèle intégré d'Apple
Cette absence de choix se retrouve aussi dans le modèle économique d'Apple, et dans sa stratégie d'enfermement de ses clients : les matériels Apple ne peuvent être utilisés qu'avec d'autres matériels et logiciels Apple. Toute autre marque est explicitement exclue par l'entreprise.
Ainsi, le dispositif de contrôle d'usage d'Apple vérifie chaque programme installé sur les machines - iPhone ou iPad. Chaque logiciel doit être préalablement signé par une clé cryptographique d'Apple. À chaque installation, l'appareil vérifie auprès d'Apple si la signature est valide, et si ce n'est pas le cas, ou que la signature est illisible, il refusera purement et simplement d'installer le programme. Idem si le programme a été modifié de quelque manière que ce soit. De plus, la signature est liée à un appareil précis, ce qui empêche tout partage du programme. Pire encore, Apple exige que tous les programmes soient distribués par l'Appstore pour les signer, et interdit donc tout marchand alternatif. Ce que souhaite l'auteur du programme par ailleurs, ou la licence sous laquelle il souhaite distribuer le programme n'a plus aucune importance : pour distribuer son produit, il doit nécessairement obtenir l'aval de l'entreprise.
Les fonctionnalités des appareils sont donc intentionnellement limitées par le constructeur : c'est pour cela qu'a été lancée la campagne « defective by design[8] » par la Free Software Foundation, qui souligne à quel point l'iPad est «un énorme pas en arrière dans l'histoire de l'informatique »[9]. En effet, les mesures de restrictions limitent la liberté des utilisateurs, qui ne peuvent plus sortir du monde imposé par Apple.
Les possibilités de contournement certes existent, comme par exemple le jailbreak de l'iPhone d'Apple. Mais elles sont non seulement non autorisées par l'entreprise (perte de la garantie notamment), elle sont difficiles à mettre en œuvre, et on n'a aucune certitude quant à leur pérennité dans le temps. Par définition ce ne sont pas des solutions approuvées, donc aucune garantie sur leur pérennité, et surtout ce sont des solutions de contournement, qui ne change en rien l'existence du problème.
eFuse, une altération du matériel en cas de contournement du contrôle d'usage
Apple, s'il est caractéristique, n'en reste pas moins qu'un exemple parmi d'autres. La controverse autour du Droid X de Motorola en est d'ailleurs un autre exemple : ce smartphone intègre une puce eFuse qui permet d’empêcher de façon permanente l'allumage du téléphone si les programmes installés ne correspondent pas à ce qui a été approuvé par Motorola. Ainsi, au nom de la lutte contre les logiciels malveillants, toute tentative de modification de programme qui ne serait pas approuvée par Motorola pourrait donc potentiellement entrainer l'impossibilité définitive d'utiliser l'appareil[10].
L'informatique déloyale ou la consécration des monopoles
L'informatique déloyale se base donc sur des « tiers de confiance », en réalité des entreprises privées qui n'ont à cœur que leurs propres intérêts, qui imposent ensuite leur loi aux développeurs et éditeurs de logiciels. Puisque les programmes ne peuvent fonctionner sans avoir été approuvés par le « tiers de confiance », celui-ci peut imposer toutes les conditions qu'il souhaite à son approbation : conditions financières, de licences, etc. Concrètement, quelques acteurs, déjà en situation monopolistique, pourraient ainsi contrôler l'entrée sur le marché de tous et donc s'assurer d'un monopole stable dans le temps et de l'absence de toute alternative.
Références
- ↑ voir par exemple http://www.trustedcomputinggroup.org/resources/five_great_reasons_to_adopt_trusted_computing : "There are, of course, valid objections on the basis of that it is a closed chip, and although it could be implemented using Open Source software who is to say that there are no hidden backdoors in the implementation. However, a similar argument can be made for just about any computer system available, so if you can get past that mental block, here are five great reasons to get excited about Trusted Computing."
- ↑ Voir par exemple leur site
- ↑ Voir par exemple Sony, qui a décidé en juin 2010 de supprimer l'option "OS alternatif" qui permettait d'avoir le système d'exploitation Linux sur la PS3[ http://www.zdnet.fr/actualites/linux-sur-la-console-ps3-c-est-fini-a-decide-sony-39750447.htm sans laisser le choix aux utilisateurs] .
- ↑ Voir ci-dessous les exemples de l'iPhone et d'eFuse
- ↑ pour plus d'information, lire l'analyse de Benjamin Sonntag
- ↑ General Public License, Licence Publique Générale http://www.april.org/fr/quest-ce-que-la-gpl
- ↑ pour plus d'informations, voir notamment http://www.gnu.org/licenses/rms-why-gplv3.fr.html
- ↑ http://www.defectivebydesign.org/
- ↑ Voir notamment sur cette campagne http://www.framablog.org/index.php/post/2010/02/12/ipad-is-bad-apple-1984
- ↑ Pour plus d'information, voir par exemple cette dépêche