Synthèse informatique déloyale

De April MediaWiki
Révision datée du 19 septembre 2010 à 07:34 par Fboulogne (discussion | contributions) (typo)
Aller à la navigationAller à la recherche


Ambox warning red construction.png
/!\ Travail en cours /!\

Cette page présente un texte de synthèse en cours de réalisation.

Si vous souhaitez participer, n'hésitez pas à laisser votre avis sur la page de discussion en suivant au mieux ces recommandations.


Introduction

L'expression « informatique de confiance » regroupe des dispositifs de contrôle d'usage qui s'appliquent à l'ensemble de votre équipement numérique contre votre volonté. L'informatique déloyale peut prendre la forme d'une puce électronique ou d'un logiciel qui identifie les composants et les programmes installés sur la machine ; elle peut aussi limiter/interdire la mise en place de tout matériel ou l'utilisation de tout logiciel.

Là où le DRM contrôle l'usage qui peut être fait d'un contenu ou d'un logiciel verrouillé donné, l'informatique déloyale contrôle indépendamment de votre volonté tous les usages qui peuvent être fait avec un de vos équipements (ordinateur, mobile, tablette graphique, assistant numérique, etc.).

L'informatique de confiance est vendue par ses promoteurs comme un moyen de sécurisation, par le contrôle à chaque démarrage de l'ensemble des processus et/ou matériels présents. Cela permet la neutralisation de ce qui n'est pas considéré comme étant « de confiance ».

Ce sont les conditions de cette confiance qui posent problème : dans le cadre de l'informatique déloyale, ce n'est plus à l'utilisateur qu'on décide de faire confiance, mais à une entreprise privée, un « tiers de confiance ». Ce tiers obtient ainsi le contrôle final de l'ordinateur sans que l'utilisateur n'ait aucun recours. Tout se passe comme si un logiciel de contrôle parental était installé d'autorité sur chaque machine et que les utilisateurs n'étaient plus que les « enfants » : l'administrateur, qui décide de ce qu'il est possible de faire, serait alors ce « tiers de confiance » sur lequel vous n'avez aucun contrôle et dont vous ignorez les motivations et parfois jusqu'à l'existence.

Dans la mesure où l'approbation de ce tiers « de confiance » est nécessaire pour faire fonctionner tout programme, les logiciels libres ne peuvent s'inscrire dans le cadre de l'informatique de confiance, autant pour des raisons qui tiennent à la nature même du logiciel libre - qui, par définition, donne aux utilisateurs le contrôle complet sur leur matériel et logiciel - que par le refus des acteurs de l'informatique de confiance de voir le logiciel libre intégré dans cette logique[1].

Définition

Le nom « informatique de confiance » vient du « Trusted Computing Group »[2] (groupe de l'informatique de confiance), un consortium d'entreprises qui souhaite développer les moyens de "sécurisation" (en réalité, de contrôle d'usage) des équipements numériques. Dans la mesure où il s'agit d'initiatives privées, il n'y a donc pas de cadre légal ou de définition juridique précis, le concept pouvant inclure de nouveaux processus toujours plus intrusifs.

De manière générale, le terme d'informatique « de confiance » désigne aujourd'hui de nombreux projets, parallèles et/ou concurrents, qui cherchent à étendre le contrôle d'usage en direction du matériel[3]. Les plus connus sont Palladium, devenu NGSCB (« Next Generation Secure Computing Base » Base d'information sécurisée de nouvelle génération) et TCG (Trusted Computing Group, ex TCPA pour « Trusted Computing Platform Alliance », Plateforme d'Alliance de l'informatique de confiance).


Les risques de l'informatique déloyale

L'impact de l'informatique déloyale est très vaste, certaines formes sont déjà en place, tandis que d'autres représentent plutôt des menaces potentielles.

Ainsi, les dangers suivants sont identifiés :

  • l'utilisateur perd le contrôle de sa propre machine. Il se retrouve dans l'obligation de se conformer aux exigences du tiers dit « de confiance » ;
  • les conditions d'utilisation du matériel peuvent être modifiées a posteriori et sans aucun recours possible[4] ;
  • malgré son but affiché de sécurité privée, l'informatique déloyale sert d'abord à mettre en place des dispositifs de contrôle d'usage, notamment pour renforcer les DRM mis en place par les majors de l'industrie du divertissement ;
  • elle interdit aux utilisateurs de choisir leurs logiciels ou de désactiver des mesures de contrôle d'usage, et leur fait encourir un risque de blocage de la machine en cas de tentative de désactivation[5] ;
  • elle exclut les produits concurrents sans possibilité de recours, et notamment tout Logiciel Libre car cela empêche d'utiliser toute alternative libre.

L'informatique déloyale s'inscrit de plus dans une logique qui peut inclure :

  • la perte du contrôle de leurs propres données par les utilisateurs et le risque en cas de défaillance technique de perdre toutes ses données irrévocablement ;
  • la possibilité pour une entreprise d'entrer dans la vie privée des utilisateurs, voire d'interdire l'anonymat.

Quand la technique se retourne contre l'utilisateur

Perte de contrôle de sa machine par l'utilisateur

Le premier danger de l'informatique déloyale est la perte du contrôle de sa propre machine. Les constructeurs affirment actuellement qu'il y a une possibilité de contournement[6] des mesures mises en place, et que l'utilisateur pourra faire fonctionner un programme affiché comme n'étant pas de confiance. Mais rien ne garantit que ces possibilités seront maintenues dans le temps, d'autant que l'idée de publier les spécifications techniques est rejetée en bloc par les entreprises commercialisant ces verrous. De plus, une telle attitude est aussi inacceptable moralement : elle revient à demander aux utilisateurs de se mettre volontairement dans une situation de dépendance vis-à-vis de ses « fournisseurs », sous prétexte qu'ils sont pour l'instant de bonne volonté.

Ces dangers pour le consommateur sont tout aussi valables pour les auteurs/éditeurs de logiciels. En effet, l'informatique déloyale ne permet pas l'intéropérabilité et donc la possibilité de proposer des programmes qui puissent fonctionner avec le système verrouiller; en d'autres termes, il devient alors nécessaire de faire de la rétro-ingéniérie pour proposer de nouveaux programmes.

Bien sûr, certains continueront d'étudier le matériel et le logiciel pour comprendre leur fonctionnement par ingénierie inverse. Mais étant donné la complexité de ce système ainsi que les coûts de telles études (le premier étant l'achat du matériel), ces études seront de moins en moins nombreuses, de plus en plus coûteuses et décourageront un grand nombre d'utilisateurs qui ne souhaitaient pourtant pas un tel contrôle. La liberté d'usage serait alors limitée à un très petit nombre, créant ainsi des discriminations entre les experts du domaine et le grand public.

Dissimulation des objectifs et absence de choix : comment l'informatique déloyale se fait accepter auprès du grand public

Face aux multiples dangers que représente l'informatique déloyale, se pose la question de l'acceptation par les consommateurs de telles restrictions de libertés : pourquoi et comment de telles mesures pourraient-elles être acceptées ? La première raison s'approche de la vente liée : si la totalité des machines sur le marché intégraient ces verrous, les utilisateurs pourraient ne plus avoir le choix.

De plus, certains programmes ou fichiers pourraient n'être ouverts que par des logiciels répondant aux normes de contrôle de l'informatique déloyale. En d'autres termes, vous ne pourriez plus jouer à votre jeu préféré, ou même lire des DVD ou des albums musicaux distribués par certaines compagnies, si vous ne possédez pas d'ordinateur tatoué ; peut-être que vous seriez contraints de choisir un éditeur particulier pour tous les contenus numériques que vous voulez lire, ou vous ne pourriez plus communiquer avec vos proches utilisant un équipement différent. Difficile pour beaucoup de résister...

Pire encore, certains utilisateurs se satisferaient sans doute d'être soumis à ces techniques au nom de la sécurité. Puisque tous les processus sont vérifiés au préalable, la présence de logiciels malveillants serait limitée par la mise en place d'une liste pré-établie. Plutôt que d'interdire à posteriori ce qui jugé nocif, l'équipement ne pourra plus faire que ce qui est préalablement autorisé.

Ces régressions des libertés au nom d'une sécurité largement illusoire (des moyens de contournement seront sans doute créés par la suite) sont inacceptables et mettent en danger l'existence même d'un choix libre concernant les programmes et logiciels. De telles mesures pourraient porter atteinte à l'ensemble du logiciel libre, par exemple par la mise en place d'un catalogue de programmes émanant d'un seul groupe d'entreprises et qui interdirait tout autre programme[7].

La Tivoïsation du monde — la tentative d'éviction des libertés du logiciel

Définition de la tivoïsation

L'expression de « tivoïsation » vient de l'entreprise américaine Tivo, un des plus gros constructeurs de magnétoscopes numériques. Ces magnétoscopes reposent sur l'utilisation de logiciels libres sous licence GNU GPL. Mais même si les sources sont disponibles, il est impossible pour les utilisateurs de modifier le programme embarqué dans ces magnétoscopes pour en améliorer les usages ; le matériel contrôle en effet que le logiciel correspond bien à celui qui a été validé par la firme, par une signature numérique. Les utilisateurs ne peuvent donc pas utiliser leur logiciel modifié. En d'autres termes, c'est le matériel qui empêche l'exercice de la liberté sur le logiciel. La tivoïsation est donc un néologisme, qui désigne l'utilisation de logiciels libres sur un matériel verrouillé[8].

Que les logiciels soient libres ou non n'a plus aucune importance : quelles que soient leurs conditions de licence, la mise en place d'un tel contrôle réduit à néant une des quatre libertés.

La GPL v3, réponse à la tivoïsation

Pour écarter les dangers de la tivoïsation, la GPL[9] v3[10] a été écrite en posant comme principe que si la mise en place de DRM n'est pas interdite en tant que telle, il doit être possible d'enlever toute fonctionnalité non souhaitée. En d'autres termes, plutôt que d'interdire les mesures de contrôle d'usage, elle s'assure de la possibilité pour les utilisateurs de contourner de telles mesures. Il s'agit donc de maintenir les libertés de tous les utilisateurs : ceux qui souhaitent garder l'environnement limité et contrôlé peuvent le faire, mais ceux qui souhaitent s'en affranchir ne sont plus empêchés de le faire. C'est, pour reprendre les termes des rédacteurs de la licence, le moyen d'éviter que « le droit de modifier votre logiciel [ne devienne] caduc si aucun de vos ordinateurs ne vous le permet »[11].

Cela permet donc de garantir aux utilisateurs d'avoir le choix, ce que l'informatique déloyale empêche.


Un exemple de tivoïsation : le modèle de Symbian

L'OS développé par Symbian exige ainsi que tous les programmes soient signés par l'entreprise pour pouvoir fonctionner sur les appareils vendus sous sa marque. Si les informations (code source) sont effectivement disponibles, cela empêche d'utiliser l'appareil pour faire ce que l'on souhaite dessus, y compris d'installer sa propre version.

Symbian OS est pourtant sous licence libre : mais celle-ci perd toute valeur, car les appareils sont toujours bloqués et exigent d'utiliser exclusivement les programmes proposés par l'entreprise. Pour pouvoir faire des modifications, il faut ainsi demander la permission à Symbian, qui propose des régimes plus ou moins restrictifs selon le domaine concerné. Cette demande d'autorisation est payante, et surtout peut être limitée par Symbian à la modification du code sur un seul téléphone précis (identification par numéro IMEI)[12]. Ainsi, la licence libre du système d'exploitation perd toute pertinence : la liberté n'est plus que théorique et ne peut plus être mise en pratique.


Vers un environnement entièrement contrôlé ?

Le modèle intégré d'Apple

Cette absence de choix se retrouve aussi dans le modèle économique d'Apple et dans sa stratégie d'enfermement de ses clients : les matériels Apple ne peuvent être utilisés qu'avec d'autres matériels et logiciels approuvés par Apple. Toute alternative est explicitement exclue par l'entreprise.

Ainsi, le dispositif de contrôle d'usage d'Apple vérifie chaque programme installé sur les machines, iPhone ou iPad. Chaque logiciel doit être préalablement signé par une clé de chiffrement d'Apple. À chaque installation, l'appareil vérifie auprès d'Apple si la signature est valide et, si ce n'est pas le cas ou que la signature est illisible, il refuse purement et simplement d'installer le programme. C'est également le cas si le programme a été modifié de quelque manière que ce soit. De plus, la signature est liée à un appareil précis, ce qui empêche tout partage du programme. Pire encore, Apple exige que tous les programmes soient distribués par l'Appstore pour les signer, et interdit donc explicitement tout marchand alternatif. Ce que souhaite l'auteur du programme (comme la licence sous laquelle il souhaite le distribuer) n'a plus aucune importance : pour distribuer son produit, y compris un logiciel libre, il doit obtenir une autorisation d'Apple, ce qui inclut l'obligation de se soumettre aux conditions de licences imposées par cette entreprise.

Les fonctionnalités des appareils sont donc intentionnellement limitées par le constructeur : c'est pour cela qu'a été lancée la campagne « defective by design[13] » par la Free Software Foundation, qui démontre à quel point l'iPad est une régression intentionnelle par rapport à tout ce que l'informatique offre comme possibilités aujourd'hui [14].

Certes, les possibilités de contournement existent, comme le « jailbreak »[15] de l'iPhone d'Apple. Mais elles ne sont pas autorisées par l'entreprise, entraînent la perte de la garantie, sont difficiles à mettre en œuvre et n'offrent aucune certitude quant à leur pérennité dans le temps. Surtout, ce sont des solutions de contournement qui ne changent rien à l'existence du problème.

eFuse[16], une altération du matériel en cas de contournement du contrôle d'usage

Apple, s'il est caractéristique, n'en reste pas moins un exemple parmi d'autres. La controverse autour du Droid X de Motorola en est d'ailleurs un bon exemple : ce smartphone intègre une puce eFuse qui permet d’empêcher de façon permanente l'allumage du mobile si les programmes installés ne correspondent pas à ce qui a été approuvé par Motorola. Ainsi, au nom de la lutte contre les logiciels malveillants, toute tentative de modification de programme qui ne serait pas approuvée par Motorola pourrait donc potentiellement entrainer l'impossibilité définitive d'utiliser l'appareil[17].

Globalement, ce type de mesure est paradoxal : il s'agit d'ajouter des technologies pour pouvoir faire moins qu'auparavant avec le même type d'appareil. La puce est ajoutée uniquement pour empêcher certains usages, sans apporter quoi que ce soit à l'utilisateur; Elle consomme de l'énergie et représente un coût inutile.

L'informatique déloyale ou la consécration des monopoles

L'informatique déloyale se base donc sur des « tiers de confiance », en réalité des entreprises privées qui n'ont à cœur que leurs propres intérêts, qui imposent ensuite leur desiderata aux développeurs et éditeurs de logiciels. Puisque les programmes ne peuvent fonctionner sans avoir été approuvés par le « tiers de confiance  », celui-ci peut imposer toutes les conditions qu'il souhaite : financières, de licences, etc. Concrètement, quelques acteurs déjà en situation monopolistique pourraient ainsi bloquer toute alternative et donc assurer la permanence de leur monopole.

Le trou analogique, vendre la sécurité pour imposer le contrôle d'usage

L'informatique déloyale s'inscrit ainsi dans une logique où le « tiers de confiance » contrôle tout ce qui est fait avec les informations, en empêchant toute modification ou copie des données manipulées. Un tel mécanisme est cependant illusoire à mettre en œuvre : pour empêcher toute copie, il faudrait que l'information circule de manière chiffrée et non copiable sur l'ensemble de son parcours, depuis le support numérique jusqu'au cerveau de la personne qui lit l'œuvre. Cela est bien évidemment absurde : à partir du moment où l'œuvre est lue, il est possible d'utiliser un appareil d'enregistrement pour la copier. Par exemple, même si un DVD est protégé par un système de verrouillage complexe, cela n'empêchera jamais quelqu'un de filmer l'écran et d'enregistrer le son, et donc de réaliser une copie. C'est le paradoxe des tentatives de menottage numérique auxquelles on assiste de plus en plus souvent aujourd'hui : pour empêcher toute copie, il faut empêcher la lecture. Mais si on empêche la lecture, il n'y a plus d'œuvre à acheter, puisqu'il n'y a plus rien à lire !

Au-delà de cette impossibilité logique, le mode de fonctionnement de la plupart des ordinateurs rend également tout verrouillage total impossible : pour limiter les "trous" dans lesquels l'information circule en clair et pourrait être copiée, il faudrait que le déchiffrement se fasse au plus près des interfaces de sortie, par exemple dans les cartes sons ou vidéos. L'ensemble de ces dernières devraient donc intégrer les composants nécessaires au déchiffrement. Si c'est la raison pour laquelle des regroupements comme le TCG ont été créés, la collaboration entre les différents acteurs est difficile dans la pratique aujourd'hui


Références

  1. voir par exemple http://www.trustedcomputinggroup.org/resources/five_great_reasons_to_adopt_trusted_computing : "There are, of course, valid objections on the basis of that it is a closed chip, and although it could be implemented using Open Source software who is to say that there are no hidden backdoors in the implementation. However, a similar argument can be made for just about any computer system available, so if you can get past that mental block, here are five great reasons to get excited about Trusted Computing [...]"
  2. Voir par exemple leur site
  3. on étend donc les mesures de contrôle d'usage déjà existantes avec les DRM sur des œuvres données au contrôle de l'équipement : par exemple, une licence OEM Windows ne peut être valable que pour une carte mère et (parfois) un disque dur donnés : toute modification du système sera refusée par le système d'exploitation.
  4. Voir par exemple Sony, qui a décidé en juin 2010 de supprimer l'option « OS alternatif » qui permettait d'avoir le système d'exploitation Linux sur la console Play Station 3[ http://www.zdnet.fr/actualites/linux-sur-la-console-ps3-c-est-fini-a-decide-sony-39750447.htm sans laisser le choix aux utilisateurs].
  5. Voir ci-dessous les exemples de l'iPhone et d'eFuse
  6. voir par exemple : « Activer ou désactiver le module de plateforme sécurisée » http://technet.microsoft.com/fr-fr/library/cc754524.aspx
  7. Comme c'est déjà le cas avec l'Appstore d'Apple par exemple
  8. pour plus d'information, lire l'analyse de Benjamin Sonntag.
  9. General Public License, Licence Publique Générale http://www.april.org/fr/quest-ce-que-la-gpl
  10. pour plus d'informations, voir notamment http://www.gnu.org/licenses/rms-why-gplv3.fr.html
  11. http://www.gnu.org/licenses/quick-guide-gplv3.fr.html
  12. Pour plus d'information, voir le site de Symbian : https://www.symbiansigned.com/app/page
  13. http://www.defectivebydesign.org/
  14. Voir notamment sur cette campagne http://www.framablog.org/index.php/post/2010/02/12/ipad-is-bad-apple-1984
  15. L'expression « jailbreak » désigne littéralement l'évasion. Elle est couramment utilisée pour désigner le contournement des mesures de restriction imposées par Apple.
  16. En français, fusible électronique.
  17. Pour plus d'information, voir par exemple cette dépêche