Synthèse informatique déloyale
Cette page présente un texte de synthèse en cours de réalisation.
Si vous souhaitez participer, n'hésitez pas à laisser votre avis sur la page de discussion en suivant au mieux ces recommandations.
Introduction
L'expression « informatique de confiance » regroupe des dispositifs de contrôle d'usage qui s'appliquent à l'ensemble de votre équipement numérique contre votre volonté. L'informatique déloyale peut prendre la forme d'une puce électronique ou d'un logiciel qui identifie les composants et les programmes installés sur la machine ; elle peut aussi limiter/interdire la mise en place de tout matériel ou l'utilisation de tout logiciel.
Là où le DRM contrôle l'usage qui peut être fait d'un contenu ou d'un logiciel verrouillé donné, l'informatique déloyale contrôle indépendamment de votre volonté tous les usages qui peuvent être fait avec un de vos équipements (ordinateur, mobile, tablette graphique, assistant numérique, etc.).
L'informatique de confiance est vendue par ses promoteurs comme un moyen de sécurisation, par le contrôle à chaque démarrage de l'ensemble des processus et/ou matériels présents. Cela permet la neutralisation de ce qui n'est pas considéré comme étant « de confiance ».
Ce sont les conditions de cette confiance qui posent problème : dans le cadre de l'informatique déloyale, ce n'est plus à l'utilisateur qu'on décide de faire confiance, mais à une entreprise privée, un « tiers de confiance ». Ce tiers obtient ainsi le contrôle final de l'ordinateur sans que l'utilisateur n'ait aucun recours. Tout se passe comme si un logiciel de contrôle parental était installé d'autorité sur chaque machine et que les utilisateurs n'étaient plus que les « enfants » : l'administrateur, qui décide de ce qu'il est possible de faire, serait alors ce « tiers de confiance » sur lequel vous n'avez aucun contrôle et dont vous ignorez les motivations et parfois jusqu'à l'existence.
Dans la mesure où l'approbation de ce tiers « de confiance » est nécessaire pour faire fonctionner tout programme, les logiciels libres ne peuvent s'inscrire dans le cadre de l'informatique de confiance, autant pour des raisons qui tiennent à la nature même du logiciel libre - qui, par définition, donne aux utilisateurs le contrôle complet sur leur matériel et logiciel - que par le refus des acteurs de l'informatique de confiance de voir le logiciel libre intégré dans cette logique[1].
Définition
Le nom « informatique de confiance » vient du « Trusted Computing Group »[2] (groupe de l'informatique de confiance), un consortium d'entreprises qui souhaite développer les moyens de "sécurisation" (en réalité, de contrôle d'usage) des équipements numériques. Dans la mesure où il s'agit d'initiatives privées, il n'y a donc pas de cadre légal ou de définition juridique précis, le concept pouvant inclure de nouveaux processus toujours plus intrusifs.
De manière générale, le terme d'informatique « de confiance » désigne aujourd'hui de nombreux projets, parallèles et/ou concurrents, qui cherchent à étendre le contrôle d'usage en direction du matériel[3]. Les plus connus sont Palladium, devenu NGSCB (« Next Generation Secure Computing Base » Base d'information sécurisée de nouvelle génération) et TCG (Trusted Computing Group, ex TCPA pour « Trusted Computing Platform Alliance », Plateforme d'Alliance de l'informatique de confiance).
L'origine de l'informatique déloyale
Le « Trusted Computing Plateform Alliance »
Depuis, plus d'une décennie maintenant, les plus importants fournisseurs et constructeurs de matériels informatiques et de logiciels pour Pc s'efforcent de construire « une informatique de confiance » En 1999 émerge le projet « Trusted computing plateform alliance » ( puis rebaptisée à partir de 2003 » Trusted Computing Group » TPG ) qui sera à l'origine d'une nouvelle industrie visant à sécuriser l'informatique, mais sécuriser pour qui ? L'origine du projet en dit long sur sa raison d'être, il s'agit d'une alliance d'entreprises informatiques parmi lesquelles se retrouvent Compaq, HP, IBM, Intel, Microsoft, AMD( etc) afin de bâtir une informatique dite de « confiance » dont le principe de base repose sur une mesure technique à savoir assigner une signature à chaque objet informatique et déléguer par la suite à un « tiers de confiance » le soin de vérifier si l’objet manipulé est autorisé à être utilisé sur un système informatique donné.
Le projet Palladium : une technologie consubstantielle à l'architecture Microsoft
En 2002, Microsoft s'empare du projet initial pour en faire un élément consubstantiel à son architecture et développe sa propre technologie sous le nom de Palladium qui deviendra en 2003 « Next-Generation Secure Computing Base » ( NGSCB) littéralement « base d'information sécurisée de nouvelle génération ».
Officiellement, selon Microsoft l'objectif du déploiement d'un tel dispositif technique est de résoudre l'ensemble des problèmes de sécurités informatiques « et de créer des applications distribuées d'un type nouveau où chaque composant puisse faire confiance aux autres parties du système à savoir logicielles ou matérielles ». La NGSCB permet de sécuriser l'ensemble du système contre les virus et autres malwares dès lors le concept reste le même.
Mais Microsoft va encore plus loin, NGSCB utilise extensivement le processeur cryptographique surnommé puce Fritz du nom du Sénateur américain Ernest « Fritz » Hollings qui a soutenu nombre d'articles de la loi américaine favorisant ce projet ou encore puce TPM (Trusted Plateform Module). Techniquement cela prend la forme d'un composant cryptographique matériel, qui a vocation à être implémenté au sein de tout type de matériel électronique ou informatique. Lors des premières version de chez IBM la puce était soudée à la carte mère. Aujourd'hui Microsoft implémente les puces au sein du processeur donc au cœur même de la machine.
Ainsi NGSCB permettrait également de s'assurer que les fichiers enregistrés par une certaine application, ne puissent être lus ou modifiées que par cette même application ou par une autre application autorisée. Microsoft nomme ce système spécifique « Sealed Storage » littéralement « stockage scellé » ou pourrait tout aussi bien appeler cela « verrouillage du marché ».
Les risques de l'informatique déloyale
L'impact de l'informatique déloyale est très vaste, certaines formes sont déjà en place, tandis que d'autres représentent plutôt des menaces potentielles.
Ainsi, les dangers suivants sont identifiés :
- l'utilisateur perd le contrôle de sa propre machine. Il se retrouve dans l'obligation de se conformer aux exigences du tiers dit « de confiance » ;
- les conditions d'utilisation du matériel peuvent être modifiées a posteriori et sans aucun recours possible[4] ;
- malgré son but affiché de sécurité privée, l'informatique déloyale sert d'abord à mettre en place des dispositifs de contrôle d'usage, notamment pour renforcer les DRM mis en place par les majors de l'industrie du divertissement ;
- elle interdit aux utilisateurs de choisir leurs logiciels ou de désactiver des mesures de contrôle d'usage, et leur fait encourir un risque de blocage de la machine en cas de tentative de désactivation[5] ;
- elle exclut les produits concurrents sans possibilité de recours, et notamment tout Logiciel Libre, empêchant ainsi l'utilisation de toute alternative libre.
L'informatique déloyale s'inscrit de plus dans une logique qui peut inclure :
- la perte du contrôle de leurs propres données par les utilisateurs et le risque en cas de défaillance technique de perdre toutes ses données irrévocablement ;
- la possibilité pour une entreprise d'entrer dans la vie privée des utilisateurs, voire d'interdire l'anonymat.
Quand la technique se retourne contre l'utilisateur
Perte de contrôle de sa machine par l'utilisateur
Le premier danger de l'informatique déloyale est la perte du contrôle de sa propre machine. Les constructeurs affirment actuellement qu'il y a une possibilité de contournement[6] des mesures mises en place, et que l'utilisateur pourra faire fonctionner un programme affiché comme n'étant pas de confiance. Mais rien ne garantit que ces possibilités seront maintenues dans le temps, d'autant que l'idée de publier les spécifications techniques est rejetée en bloc par les entreprises commercialisant ces verrous. De plus, une telle attitude est aussi inacceptable moralement : elle revient à demander aux utilisateurs de se mettre volontairement dans une situation de dépendance vis-à-vis de ses « fournisseurs », sous prétexte qu'ils sont pour l'instant de bonne volonté.
Ces dangers pour le consommateur sont tout aussi valables pour les auteurs/éditeurs de logiciels. En effet, l'informatique déloyale ne permet pas l'intéropérabilité et donc la possibilité de proposer des programmes qui puissent fonctionner avec le système verrouillé; en d'autres termes, il devient alors nécessaire de faire de la rétro-ingéniérie pour proposer de nouveaux programmes.
Bien sûr, certains continueront d'étudier le matériel et le logiciel pour comprendre leur fonctionnement par ingénierie inverse. Mais étant donné la complexité de ce système ainsi que les coûts de telles études (le premier étant l'achat du matériel), ces études seront de moins en moins nombreuses, de plus en plus coûteuses et décourageront un grand nombre d'utilisateurs qui ne souhaitaient pourtant pas un tel contrôle. La liberté d'usage serait alors limitée à un très petit nombre, créant ainsi des discriminations entre les experts du domaine et le grand public.
Dissimulation des objectifs et absence de choix : comment l'informatique déloyale se fait accepter auprès du grand public
Face aux multiples dangers que représente l'informatique déloyale, se pose la question de l'acceptation par les consommateurs de telles restrictions de libertés : pourquoi et comment de telles mesures pourraient-elles être acceptées ? La première raison s'approche de la vente liée : si la totalité des machines sur le marché intégraient ces verrous, les utilisateurs pourraient ne plus avoir le choix.
De plus, certains programmes ou fichiers pourraient n'être ouverts que par des logiciels répondant aux normes de contrôle de l'informatique déloyale. En d'autres termes, vous ne pourriez plus jouer à votre jeu préféré, ou même lire des DVD ou des albums musicaux distribués par certaines compagnies, si vous ne possédez pas d'ordinateur tatoué ; peut-être que vous seriez contraints de choisir un éditeur particulier pour tous les contenus numériques que vous voulez lire, ou vous ne pourriez plus communiquer avec vos proches utilisant un équipement différent. Difficile pour beaucoup de résister...
Pire encore, certains utilisateurs se satisferaient sans doute d'être soumis à ces techniques au nom de la sécurité. Puisque tous les processus sont vérifiés au préalable, la présence de logiciels malveillants serait limitée par la mise en place d'une liste pré-établie. Plutôt que d'interdire à posteriori ce qui est jugé nocif, l'équipement ne pourra plus faire que ce qui est préalablement autorisé.
Ces régressions des libertés au nom d'une sécurité largement illusoire (des moyens de contournement seront sans doute créés par la suite) sont inacceptables et mettent en danger l'existence même d'un choix libre concernant les programmes et logiciels. De telles mesures pourraient porter atteinte à l'ensemble du logiciel libre, par exemple par la mise en place d'un catalogue de programmes émanant d'un seul groupe d'entreprises et qui interdirait tout autre programme[7].
La Tivoïsation du monde — la tentative d'éviction des libertés du logiciel
Définition de la tivoïsation
L'expression de « tivoïsation » vient de l'entreprise américaine Tivo, un des plus gros constructeurs de magnétoscopes numériques. Ces magnétoscopes reposent sur l'utilisation de logiciels libres sous licence GNU GPL. Mais même si les sources sont disponibles, il est impossible pour les utilisateurs de modifier le programme embarqué dans ces magnétoscopes pour en améliorer les usages ; le matériel contrôle en effet que le logiciel correspond bien à celui qui a été validé par la firme, par une signature numérique. Les utilisateurs ne peuvent donc pas utiliser leur logiciel modifié. En d'autres termes, c'est le matériel qui empêche l'exercice de la liberté sur le logiciel. La tivoïsation est donc un néologisme, qui désigne l'utilisation de logiciels libres sur un matériel verrouillé[8].
Que les logiciels soient libres ou non n'a plus aucune importance : quelles que soient leurs conditions de licence, la mise en place d'un tel contrôle réduit à néant une des quatre libertés.
La GPL v3, réponse à la tivoïsation
Pour écarter les dangers de la tivoïsation, la GPL[9] v3[10] a été écrite en posant comme principe que si la mise en place de DRM n'est pas interdite en tant que telle, il doit être possible d'enlever toute fonctionnalité non souhaitée. En d'autres termes, plutôt que d'interdire les mesures de contrôle d'usage, elle s'assure de la possibilité pour les utilisateurs de contourner de telles mesures. Il s'agit donc de maintenir les libertés de tous les utilisateurs : ceux qui souhaitent garder l'environnement limité et contrôlé peuvent le faire, mais ceux qui souhaitent s'en affranchir ne sont plus empêchés de le faire. C'est, pour reprendre les termes des rédacteurs de la licence, le moyen d'éviter que « le droit de modifier votre logiciel [ne devienne] caduc si aucun de vos ordinateurs ne vous le permet »[11].
Cela permet donc de garantir aux utilisateurs d'avoir le choix, ce que l'informatique déloyale empêche.
Un exemple de tivoïsation : le modèle de Symbian
L'OS développé par Symbian exige ainsi que tous les programmes soient signés par l'entreprise pour pouvoir fonctionner sur les appareils vendus sous sa marque. Si les informations (code source) sont effectivement disponibles, cela empêche d'utiliser l'appareil pour faire ce que l'on souhaite dessus, y compris d'installer sa propre version.
Symbian OS est pourtant sous licence libre : mais celle-ci perd toute valeur, car les appareils sont toujours bloqués et exigent d'utiliser exclusivement les programmes proposés par l'entreprise. Pour pouvoir faire des modifications, il faut ainsi demander la permission à Symbian, qui propose des régimes plus ou moins restrictifs selon le domaine concerné. Cette demande d'autorisation est payante, et surtout peut être limitée par Symbian à la modification du code sur un seul téléphone précis (identification par numéro IMEI)[12]. Ainsi, la licence libre du système d'exploitation perd toute pertinence : la liberté n'est plus que théorique et ne peut plus être mise en pratique.
Vers un environnement entièrement contrôlé ?
Le modèle intégré d'Apple
Cette absence de choix se retrouve aussi dans le modèle économique d'Apple et dans sa stratégie d'enfermement de ses clients : les matériels Apple ne peuvent être utilisés qu'avec d'autres matériels et logiciels approuvés par Apple. Toute alternative est explicitement exclue par l'entreprise.
Ainsi, le dispositif de contrôle d'usage d'Apple vérifie chaque programme installé sur les machines, iPhone ou iPad. Chaque logiciel doit être préalablement signé par une clé de chiffrement d'Apple. À chaque installation, l'appareil vérifie auprès d'Apple si la signature est valide et, si ce n'est pas le cas ou que la signature est illisible, il refuse purement et simplement d'installer le programme. C'est également le cas si le programme a été modifié de quelque manière que ce soit. De plus, la signature est liée à un appareil précis, ce qui empêche tout partage du programme. Pire encore, Apple exige que tous les programmes soient distribués par l'Appstore pour les signer, et interdit donc explicitement tout marchand alternatif. Ce que souhaite l'auteur du programme (comme la licence sous laquelle il souhaite le distribuer) n'a plus aucune importance : pour distribuer son produit, y compris un logiciel libre, il doit obtenir une autorisation d'Apple, ce qui inclut l'obligation de se soumettre aux conditions de licences imposées par cette entreprise.
Les fonctionnalités des appareils sont donc intentionnellement limitées par le constructeur : c'est pour cela qu'a été lancée la campagne « defective by design[13] » par la Free Software Foundation, qui démontre à quel point l'iPad est une régression intentionnelle par rapport à tout ce que l'informatique offre comme possibilités aujourd'hui [14].
Certes, les possibilités de contournement existent, comme le « jailbreak »[15] de l'iPhone d'Apple. Mais elles ne sont pas autorisées par l'entreprise, entraînent la perte de la garantie, sont difficiles à mettre en œuvre et n'offrent aucune certitude quant à leur pérennité dans le temps. Surtout, ce sont des solutions de contournement qui ne changent rien à l'existence du problème.
eFuse[16], une altération du matériel en cas de contournement du contrôle d'usage
Apple, s'il est caractéristique, n'en reste pas moins un exemple parmi d'autres. La controverse autour du Droid X de Motorola en est d'ailleurs un bon exemple : ce smartphone intègre une puce eFuse qui permet d’empêcher de façon permanente l'allumage du mobile si les programmes installés ne correspondent pas à ce qui a été approuvé par Motorola. Ainsi, au nom de la lutte contre les logiciels malveillants, toute tentative de modification de programme qui ne serait pas approuvée par Motorola pourrait donc potentiellement entrainer l'impossibilité définitive d'utiliser l'appareil[17].
Globalement, ce type de mesure est paradoxal : il s'agit d'ajouter des technologies pour pouvoir faire moins qu'auparavant avec le même type d'appareil. La puce est ajoutée uniquement pour empêcher certains usages, sans apporter quoi que ce soit à l'utilisateur; Elle consomme de l'énergie et représente un coût inutile.
L'informatique déloyale ou la consécration des monopoles
L'informatique déloyale se base donc sur des « tiers de confiance », en réalité des entreprises privées qui n'ont à cœur que leurs propres intérêts, qui imposent ensuite leur desiderata aux développeurs et éditeurs de logiciels. Puisque les programmes ne peuvent fonctionner sans avoir été approuvés par le « tiers de confiance », celui-ci peut imposer toutes les conditions qu'il souhaite : financières, de licences, etc. Concrètement, quelques acteurs déjà en situation monopolistique pourraient ainsi bloquer toute alternative et donc assurer la permanence de leur monopole.
Le trou analogique, vendre la sécurité pour imposer le contrôle d'usage
L'informatique déloyale s'inscrit ainsi dans une logique où le « tiers de confiance » contrôle tout ce qui est fait avec les informations, en empêchant toute modification ou copie des données manipulées. Un tel mécanisme est cependant illusoire à mettre en œuvre : pour empêcher toute copie, il faudrait que l'information circule de manière chiffrée et non copiable sur l'ensemble de son parcours, depuis le support numérique jusqu'au cerveau de la personne qui lit l'œuvre. Cela est bien évidemment absurde : à partir du moment où l'œuvre est lue, il est possible d'utiliser un appareil d'enregistrement pour la copier. Par exemple, même si un DVD est protégé par un système de verrouillage complexe, cela n'empêchera jamais quelqu'un de filmer l'écran et d'enregistrer le son, et donc de réaliser une copie. C'est le paradoxe des tentatives de menottage numérique auxquelles on assiste de plus en plus souvent aujourd'hui : pour empêcher toute copie, il faut empêcher la lecture. Mais si on empêche la lecture, il n'y a plus d'œuvre à acheter, puisqu'il n'y a plus rien à lire !
Au-delà de cette impossibilité logique, le mode de fonctionnement de la plupart des ordinateurs rend également tout verrouillage total impossible : pour limiter les "trous" dans lesquels l'information circule en clair et pourrait être copiée, il faudrait que le déchiffrement se fasse au plus près des interfaces de sortie, par exemple dans les cartes sons ou vidéos. L'ensemble de ces dernières devraient donc intégrer les composants nécessaires au déchiffrement. Si c'est la raison pour laquelle des regroupements comme le TCG ont été créés, la collaboration entre les différents acteurs est difficile dans la pratique aujourd'hui
Les enjeux concurrentiels : vers un verrouillage progressif du marché ?
L'éviction caractérisée des logiciels libres
L'éviction des logiciels et des systèmes d'exploitations libres est patente.En effet, si les mesures de sécurité ne sont pas en elles-mêmes contraires au logiciel libre, les modalités actuelles de sa mise en œuvre renferme des dangers inéluctables pour le développement du logiciel libre. La technologie est a priori neutre, mais l'usage qui en est fait ne l'est pas toujours. Cette nouvelle technologie qui a vocation à étendre ses tentacules à l'ensemble du marché informatique, porte potentiellement en germe d'importants dangers pour la libre concurrence et l'innovation. Et pour cause, à ce jour aucune information complémentaire n'a été donné sur ce « tiers de confiance » ni sur la manière dont il est désigné. Pire encore, à l'heure d'aujourd'hui, seul Microsoft, répond à cette appellation. Dès lors quid de sa neutralité, peut-il être à la fois régulateur privé et acteur du marché ? Ainsi, force est de constater, que de facto, un logiciel quelconque qui n'aurait pu obtenir au préalable une signature référencée chez le « tiers de confiance » comme étant habilité à un usage sur le matériel informatique sera purement et simplement rejeté et donc hors de portée du consommateur. N'y a t-il pas là une absurdité aberrante ? Comment peut-on octroyer à une entreprise hégémonique sur le marché, les clés pour agréer ses propres concurrents ?
Les logiciels libres seront certainement confrontés à une seconde difficulté, en effet Il sera probablement difficile d'obtenir une certification pour un logiciel dont les sources sont ouvertes et peuvent être modifiées librement.
Par ailleurs une barrière tarifaire doit également être souligné, les développeurs du Libre n'ont pas forcément les moyens ni la possibilité même de payer une certification. La lumière n'a pas encore été faite sur les conditions d'obtention d'une certification. Faut-il nécessairement avoir la personnalité morale ou encore s'inscrire dans un processus de commercialisation ? Dès lors quid des développeurs libristes passionnés qui se consacrent au développement de logiciel depuis son ordinateur personnel sans prétention aucune ? Auront- ils encore demain la possibilité de poursuivre leurs hobby sans verrous ? Rien ne le garantit.
À ce jour, seuls deux éditeurs de logiciels libres ont cédé au « chantage » , il s'agit de Canonical et de Red Hat, qui ont d'ores et déjà payer pour obtenir une clé et permettre ainsi aux ordinateurs de pouvoir lancer leur systèmes d'exploitations.
Pour le reste des solutions alternatives, celles-ci n'étant pas encore passés à la caisse, ces systèmes d'exploitations libres ne pourront pas démarrer en mode sécurisé. Et même un logiciel libre installé sur un système d'exploitation propriétaire certifié ne pourra pas démarrer dans le sous-système TCG / NGSCB de la machine. Ainsi l'existence même des logiciels libres sur le marché est gravement menacé, il va devenir rapidement impossible de faire quoique ce soit avec un logiciel libre, dès lors qui voudra d'un logiciel inutilisable ? C'est un scénario catastrophe qui présente d'important dangers pour le logiciel libre par la remise en cause de son modèle économique et la remise en cause d'une concurrence saine sur le marché.
Enfin il n'est pas anodin de noter que le projet informatique de confiance coïncide avec l'émergence des premiers logiciels libres sur le marché notamment la première distribution de Linux en 1992 qui est le logiciel libre au succès qu'on lui connaît. Dès lors n'y a t- il pas là , en germe, une nouvelle stratégie d'éviction de la concurrence, en faveur du maintien d'une position monopolistique sur le marché ?
Références
- ↑ voir par exemple http://www.trustedcomputinggroup.org/resources/five_great_reasons_to_adopt_trusted_computing : "There are, of course, valid objections on the basis of that it is a closed chip, and although it could be implemented using Open Source software who is to say that there are no hidden backdoors in the implementation. However, a similar argument can be made for just about any computer system available, so if you can get past that mental block, here are five great reasons to get excited about Trusted Computing [...]"
- ↑ Voir par exemple leur site
- ↑ on étend donc les mesures de contrôle d'usage déjà existantes avec les DRM sur des œuvres données au contrôle de l'équipement : par exemple, une licence OEM Windows ne peut être valable que pour une carte mère et (parfois) un disque dur donnés : toute modification du système sera refusée par le système d'exploitation.
- ↑ Voir par exemple Sony, qui a décidé en juin 2010 de supprimer l'option « OS alternatif » qui permettait d'avoir le système d'exploitation Linux sur la console Play Station 3[ http://www.zdnet.fr/actualites/linux-sur-la-console-ps3-c-est-fini-a-decide-sony-39750447.htm sans laisser le choix aux utilisateurs].
- ↑ Voir ci-dessous les exemples de l'iPhone et d'eFuse
- ↑ voir par exemple : « Activer ou désactiver le module de plateforme sécurisée » http://technet.microsoft.com/fr-fr/library/cc754524.aspx
- ↑ Comme c'est déjà le cas avec l'Appstore d'Apple par exemple
- ↑ pour plus d'information, lire l'analyse de Benjamin Sonntag.
- ↑ General Public License, Licence Publique Générale http://www.april.org/fr/quest-ce-que-la-gpl
- ↑ pour plus d'informations, voir notamment http://www.gnu.org/licenses/rms-why-gplv3.fr.html
- ↑ http://www.gnu.org/licenses/quick-guide-gplv3.fr.html
- ↑ Pour plus d'information, voir le site de Symbian : https://www.symbiansigned.com/app/page
- ↑ http://www.defectivebydesign.org/
- ↑ Voir notamment sur cette campagne http://www.framablog.org/index.php/post/2010/02/12/ipad-is-bad-apple-1984
- ↑ L'expression « jailbreak » désigne littéralement l'évasion. Elle est couramment utilisée pour désigner le contournement des mesures de restriction imposées par Apple.
- ↑ En français, fusible électronique.
- ↑ Pour plus d'information, voir par exemple cette dépêche