Audition et logiciels libres : conférence RMLL juillet 2013
Titre : Audition et logiciels libres
Intervenant : Marie-Pierre Bijon
Date : Mercredi 10 juillet 2013
Durée : 40 minutes
info sur la conf dans le programme RMLL : [1]
Lien vers la vidéo :[2]
00' transcrit Irina
Marie-Pierre : Bonjour Je m’appelle Marie-Pierre Bijon, je viens ici pour vous présenter le travail d’un groupe de travail « accessibilité et logiciels libres », et surtout sur la partie audition et logiciels libres. Là, ça va mieux… ? D’accord. Pour vous informer de l’étude qui est faite sur ce domaine-là et en lien avec les logiciels libres. Alors je rappelle la définition du logiciel libre : un logiciel est libre quand on a la liberté d’exécuter le programme, pour tous les usages, quand on a la liberté d’étudier le fonctionnement du programme, quand on a la liberté d’en distribuer des copies, et quand on a la liberté d’améliorer le programme et de publier ses améliorations, et l’accessibilité c’est la liberté d’usage mais pour tous quelque soit son handicap.
Je voulais adresser cette conférence à plusieurs publics. Alors effectivement le premier public ce sont les personnes qui présentent une déficience auditive, qui sont malentendantes. Je voulais aussi parler aux acteurs de leur prise en charge, pour essayer de les sensibiliser sur le développement de ce projet et surtout des possibilités qu’il offre. Et je voulais aussi sensibiliser les acteurs de la sphère informatique aux questions d’accessibilité liées à un déficit auditif. Aujourd’hui dans le monde du travail il y a des gens qui travaillent toute la journée avec un PC et avec un casque d’écoute sur les oreilles pour répondre et conseiller des interlocuteurs. Ces personnes là ont besoin, souvent, à un moment donné, soit de la journée parce que ça fatigue un petit peu, soit au cours de leur vie parce que leur audition n’est pas optimale tout au long de leur vie, elles ont besoin aussi d’outils qui leur permettent d’améliorer leur écoute dans leur travail. Et je voulais effectivement élargir, voilà, dans le cadre professionnel, donc ça j’en ai parlé… au regard du développement des plateaux techniques hein… Il y a beaucoup de plateaux techniques qui intègrent l’informatique et le téléphone aujourd’hui dans le milieu professionnel, et il y a l’utilisation croissante des outils de communication à distance qui fait que aujourd’hui, même dans le milieu du travail, même pour quelqu’un qui n’a pas de déficience auditive, pouvoir apporter un confort d’écoute est aussi utile. Et l’accessibilité on sait bien que c’est pour les personnes qui présentent un handicap, mais s’ajoute aussi souvent du confort aux personnes qui n’ont pas forcément de déficience au départ.
J’avais commencé cette étude en 2010, ma première approche c’était de savoir, bon, l’appareil auditif, est-ce qu’y avait d’autres possibilités, que cette prise en charge-là qui était proposée aujourd’hui. Et donc je me suis penchée sur les logiciels libres pour savoir qu’est-ce qu’ils pouvaient apporter dans la compensation du handicap auditif et dans la réalisation d’outils assistés par ordinateur. Ce sont des outils d’audition assistés par ordinateur. Et pourquoi je m’étais un peu lancée dans cette démarche, c’est parce que j’étais un peu ennuyée par rapport à la prise en charge actuelle ; On va le voir tout à l’heure… On avait pas la possibilité de réaliser ses propres réglages, bon le coût reste important et ça retarde souvent la décision d’appareillage, et l’utilisation des piles qui doivent êtres changées régulièrement, qui fait aussi que de temps en temps l’appareil ne fonctionne pas toujours de façon optimale. La prise en charge aujourd’hui… le frein… je ne sais pas si c’est le frein majeur, mais en tout cas… je veux dire un élément de la prise en charge qui est quand-même assez lourd, c’est que un appareil auditif aujourd’hui c’est un dispositif médical. Au sens d’un article du code de la santé publique. C’est à dire qu’on ne peut pas se le procurer de façon ouverte : le choix, l’adaptation, le contrôle d’efficacité immédiate et permanente est confié à l’audioprothésiste. Voilà, donc forcément ça induit une dépendance vis à vis de l’audioprothésiste.
Alors, dans l’étude qui suivait, le logiciel libre, est-ce que c’est un enjeu de santé publique ? Il me semble aussi que c’est un enjeu de santé publique, parce qu’on voit que ce qu’on va chercher, c’est l’autonomie ; c’est une adaptation dans l’espace sonore réel et non dans un lieu différent. C’est-à-dire que, on va chercher à pouvoir faire ses réglages et à adapter la correction, dans l’espace sonore où l’on se trouve, et au moment où l’on se trouve, sans forcément attendre le délai de rendez-vous avec l’audioprothésiste qui va permettre de réajuster la correction. Mais là avec les logiciels libre, on a la possibilité de le faire, aujourd’hui, en temps réel, et sur le lieu même de la correction. Et donc c’est l’adaptation dans l’espace sonore réel, c’est l’instantanéité des corrections. C’est-à-dire c’est l’aspect temps réel qui m’intéressait aussi, c’est-à-dire d’avoir la capacité de sentir à un moment donné, les nuances que je pouvais apporter par l’utilisation des outils. Et ça c’est utile aussi ! Quand on est appareillé avec une prothèse, une prothèse qui est réglée, qui a un réglage, alors il peut y avoir plusieurs profils d’écoute en fonction de plusieurs situations sonores différentes, mais bon c’est quand-même des profils très, voilà… y en a pas forcément beaucoup. Et l’un des points essentiels pour moi, c’était d’avoir à recréer, et à ressentir surtout les nuances, que j’avais dans la correction auditive. C’est-à-dire pouvoir apprécier toutes les variations qui étaient faites mais régulièrement et… je dirais souvent, de façon à pouvoir exactement positionner la correction, là où j’en ai besoin et au moment où j’en ai besoin. Et donc c’est dans l’appréciation des nuances entre le moins bien et le mieux, qui aussi participent je pense, et à la prise en charge, et permet d’améliorer l’écoute.
Quelle est la population concernée par cette démarche, alors… La Haute Autorité de santé avait fait une étude en 2008, qui montrait qu’il y avait à peu près 6,3 millions de personnes mal-entendantes en France, et que la population effectivement appareillée, eh bien elle était très inférieure, et elle était estimée à 17 % de ce nombre-là, donc ça faisait 1 million de personnes appareillées sur les 6,3 millions de personnes mal-entendantes. Ce qui fait qu’il y a un… comment dire… un groupe de personnes qui représentent quand-même 5 millions de personnes, qui présentent des problèmes d’audition, légers à modérés, pas forcément de nature à être appareillés, mais qui quand-même présentent des gênes au quotidien, et je pense qu’ils peuvent être aussi améliorés par une approche libre de la correction auditive.
Je vais parler un peu de la pathologie qui est concernée, surtout qui est concernée par l’étude, et celle que j’ai pu creuser. C’est la surdité de perception de type presbyacousie. C’est-à-dire que il y a deux types de surdités, les surdités de transmission et les surdités de perception. La presbyacousie, c’est la surdité liée à l’âge… et c’est surtout celle-là, on va dire qui a fait l’objet des tests. Donc c’est une surdité souvent légère à modérée, c’est le seuil de perception qui est perturbé. C’est une surdité qui évolue très lentement, qui s’installe très très progressivement et très lentement et… qu’on peut je dirais vivre plusieurs années sans forcément être impacté, de façon importante et grave, dans son activité. On peut voir aussi dans la surdité associée, ou non, des problèmes de presbyacousie. La presbyacousie, c’est le seuil de tolérance qui est perturbé ; on le verra. Ce sont des sons qui apparaissent, très gênants, voire inconfortables, voire douloureux, à l’oreille. C’est-à-dire que certains sons de l’environnement, deviennent très agressifs, et ces personnes-là en général… je dirais, sont très prudentes par rapport à des situations sonores qui peuvent être, agressives et violentes. Et elle se bouchent les oreilles, en fait dès qu’il y a un son qui passe un certain seuil sur certaines fréquences.
Auditeur : Ce qui veux dire que malgré le mot, ça ne signifiait pas qu’elles entendraient plus que d’autres ?
Marie-Pierre : Je ne suis pas sûre qu’on ait pu évaluer le fait qu’elles entendraient plus, ou pas. Parce que hyperacousie telle qu’on la teste aujourd’hui… et on va le voir avec les seuils tout à l’heure, je montre les seuils et un audiogramme et un seuil… on va le voir, la mesure objective qu’on a ne permet pas, de conclure ça en fait. Et on va le voir après.
Auditeur : Mais la question était « Est-ce que les sons faibles sont mieux entendus pour ces gens là ? »
Marie-Pierre : Je ne suis pas sûre…
Alors pardon, je reviens sur le micro.
Alors la question c’était, est-ce que les sons faibles sont entendus pour les personnes qui présentent une hyperacousie, je suis pas persuadée… je peux pas… je suis pas sûre. Je vais vous montrer tout à l’heure, qu’est ce que c’est au niveau des seuils, et on comprendra… comment dire, ce symptôme hyperacousie quand on le pose, par rapport à quoi on le pose. Et c’est pas forcément en lien avec ces éléments-là en fait.
D’autres troubles qu’on peut voir aussi, c’est un trouble de la localisation des sources sonores. C’est-à-dire que la personne ne peut pas savoir d’où vient le bruit. En général là ce sont des personnes… par exemple, vous êtes à un rond-point en voiture, il y a une alarme, une sirène de pompier, d’ambulance, qui retentit. Et puis, alors tout le monde, tout le monde dégage, tout le monde dégage dans les différentes voies, puis il y a la voiture qui reste plantée au milieu parce qu’elle sait absolument pas où est-ce qu’elle doit dégager, pour libérer la voie, parce qu’elle n’a pas perçu d’où vient le son. Et elle ne peut pas apprécier d’où venait le son, elle ne peut pas apprécier où elle doit aller avant d’avoir vu l’ambulance ou le camion de pompiers, pour savoir où il se dirige et où est-ce que elle peut dégager la voie. Donc y a des situations qui deviennent compliquées par rapport à ça.
Et le dernier élément c’est le trouble de discrimination des sons en milieu sonore. En milieu bruyant tout se mélange. En fait, ces personnes-là, qui présentent cette déficience-là, elles sont incapables, même quand il n’y a que 2 personnes qui parlent en même temps, de comprendre ce que chacune dit. C’est-à-dire que ça se mélange, c’est un peu de la soupe, on ne peut plus apprécier ce que dit l’autre, par rapport à l’autre, et c’est vraiment difficile et compliqué. Alors tous les milieux publics, tous les endroits où il y a beaucoup de bruits, de bavardages, c’est vrai que c’est un peu compliqué pour ces personnes.
Je parle un peu biologie là au niveau du dysfonctionnement, donc c’est… comment dire, la surdité de perception, elle concerne l’oreille interne. En rose là, vous voyez la cochlée. C’est un élément qui est perturbé au niveau de l’oreille interne. En fait, les ondes sonores, donc se propagent dans l’air, dans le conduit auditif, elles frappent le tympan qui est ensuite cette, comment dire, vibration est répercutée par l’oreille moyenne, les osselets, jusqu’à la cochlée. Et après on arrive dans un milieu liquidien où y a des cellules, avec des cils, qui vibrent et qui bougent en fonction de la vibration qu’elles ont reçue. Et une des hypothèses est que ces cellules-là sont impactées, sont déficientes et ne permettent pas de transmettre un son, au nerf auditif, cohérent. Et donc ce qui donne toutes les distorsions des déficiences auditives.
Voilà… pour mieux représenter par rapport aux difficultés et surtout par rapport à ce qui est objectivé le plus facilement au niveau médical, l’audiométrie. Donc là, vous avez les puissances, les décibels en vertical, avec un maximum de décibels en bas, et vous augmentez les fréquences. à l’horizontale en allant vers la droite. Et donc là j’ai marqué 2 seuils, classiques, enfin qu’on mesure. Enfin y en a surtout un qu’on mesure, c’est le seuil de perception. Donc c’est en bleu. C’est le seuil à partir duquel, donc pour chaque fréquence, c’est le seuil à partir duquel vous percevez le son. Donc pour chaque fréquence, il est mesuré, et votre courbe, elle est dessinée à ce moment-là. En rouge j’ai marqué le seuil de tolérance, et c’est là qu’on rejoint les phénomènes d’hyperacousie. Le seuil de tolérance, ce sont les seuil où vous dites : attendez, là le son, au delà, pas plus ou je me bouche les oreilles, parce que vraiment c’est gênant et inconfortable. Donc c’est ce seuil de… perception, qui en fonction de son évolution, peut faire dire ou non que la personne est hyperacousie. C’est pour ça qu’en fait, on n’est pas tellement dans la zone où on peut dire qu’on entend mieux, on est surtout dans la zone où on peut dire que les sons forts deviennent très douloureux ou gênants. Voilà. Et alors ces deux seuils en général, ils se rapprochent, enfin ils peuvent avoir tendance à se rapprocher. C’est-à-dire, le seuil de perception diminue, dans la presbyacousie, ce sont essentiellement les fréquences aiguës, qui sont impactées. Donc ça se creuse, la courbe elle descend comme ça. Et l’hyperacousie c’est aussi, ça peut être dans les fréquences aiguës en général que ça se relève. Donc les 2 courbes, elles s’écrasent en fait. Ce qui fait que la zone restante, la zone audible, la zone de perception restante, elle est diminuée, et ce qui fait que dans cette zone de perception restante où il est utile, je dirais d’apprécier les capacités restantes, justement pour les optimiser. Pour leur permettre de récupérer un son, et de récupérer surtout la faculté d’apprécier les nuances, dans cette zone restante. Et c’est pour ça que tous les systèmes de prises en charge en fin… ou de correction qui permettent à l’utilisateur lui-même d’avoir cette perception-là qui reste importante. Et c’est ça qui est possible avec le logiciel libre. Et c’est ça je pense qui a des enjeux importants dans ce type de prise en charge.
Alors, on pourrait se demander pourquoi réaliser ses propres réglages ? Finalement l’audioprothésiste il est là pour nous aider. Il le fait probablement très bien, et en plus il connaît bien le matériel. Donc il sait exactement quel réglage il peut apporter par rapport au matériel qu’il utilise. Alors on peut effectivement imaginer qu’on peut quand-même avoir un décalage entre ce qu’a perçu la personne qui souhaite être appareillée, entre la façon dont elle exprime et surtout la façon dont l’audioprothésiste va comprendre le trouble de la personne, pour essayer d’améliorer au mieux. Donc il y a toujours une interface, c’est une interface entre le matériel et l’utilisateur de l’appareil. Et cette interface, je pense induit probablement des décalages, dans l’optimisation des réglages. Et effectivement si l’utilisateur peut lui-même régler sa prothèse et ressentir directement les effets des réglages, les problèmes d’interface disparaissent.
Alors, en fait aujourd’hui le choix par rapport à cette prise en charge et à l’appareil auditif, c’est en fait on transforme une déficience en dépendance. C’est-à-dire effectivement une dépendance auditive au départ, on en fait une dépendance vis-à-vis d’une prise en charge. Ça peut être une aide aussi. Mais y a une dépendance vis-à-vis d’une personne, et ça c’est vrai que c’est aussi un échelon de plus, on va dire, dans le handicap, que si on peut éviter,c’est une solution intéressante.
Donc et s’il était possible d’éliminer les situations de handicap en toute autonomie, s’il était possible de régler, adapter, contrôler son appareillage soi-même, en fonction de ses besoins, et en fonction de son environnement sonore. Le but du jeu c’est de le faire à l’instant T, et dans l’environnement sonore du moment. Pas forcément dans l’environnement sonore de la cabine de l’audioprothésiste, mais aussi sur le terrain directement en fonction des bruits ambiants. Et là le logiciel libre intervient, et il représente vraiment un outil majeur, dans la compensation du handicap auditif. Alors. Les pistes… Ça je les avais surtout développées l’an dernier… Les pistes intéressantes et les atouts des logiciels libres, dans cette démarche, c’est surtout parce qu’on simplifie les interfaces, en fait, entre l’utilisateur et son appareillage. Avant il y avait, l’appareil, l’audioprothésiste, l’utilisateur… Là le but du jeu, c’est que là il y a l’appareil, l’utilisateur, et l’audioprothésiste qui accompagne, qui aide. Mais entre l’utilisateur et la machine, y a un contrôle direct et il y a des possibilités de rétroactions immédiates et directes. Et c’est ça qui est utile.
Alors on va rechercher une interopérabilité, entre les différentes interfaces. Et on verra aussi entre les différents modules, qu’on peut avoir par rapport à l’aspect plus technique… On aura forcément des délais de prise en charge diminués, mais c’est surtout qu’on aurait une capacité de correction immédiate et rapide. On a la capacité de personnaliser les outils. C’est-à-dire d’avoir la correction qui va bien. Et juste la correction qui va bien. Pas la correction qui est là parce que la prothèse aujourd’hui elle est là et elle propose toutes les options utilisables. J’aurai la correction qui va bien, c’est celle que j’aurai besoin. Et je n’ai pas forcément besoin de tout le reste du panel que me propose l’outil.
Bien sûr le logiciel libre, c’est aussi diffuser, partager les savoirs. Et les savoir-faire surtout, les expériences, et la possibilité d’ajuster les coûts aux besoins des utilisateurs. Là ça rejoint le point où effectivement, dans une prothèse aujourd’hui c’est un coût global. Avec le matériel et la prise en charge, l’accompagnement de l’audioprothésiste, toute la partie réglage tout ça, qui est en même temps. C’est vrai que ça pourrait être intéressant de dissocier les coûts, de façon à ce que au niveau du matériel, le juste coût soit fait par rapport à la juste demande et à, comment dire… à l’équipement le plus juste, dont nécessite la personne pour pouvoir l’utiliser. Voilà… Aujourd’hui les prothèses, elles sont très performantes… technologiquement elles avancent tout le temps, et elles évoluent tout le temps… Mais des fois on peut se demander, si à un moment donné, quand on doit changer la prothèse, est-ce que c’est vraiment utile, est-ce que ce n’est pas utile ? Quel est le gain que va m’apporter la nouvelle prothèse ? Est-ce que j’ai vraiment la capacité de le savoir ? Eh bien, pas forcément… Je ne sais pas vraiment si la nouvelle prothèse qu’on va me proposer va m’apporter un gain, mais comme c’est une nouvelle prothèse et que je dois changer la mienne, je vais la prendre mais… je n’aurais pas forcément la connaissance du bénéfice qu’on cherche à me proposer. Évidement l’apport d’autonomie, c’est le but de la démarche.