Le monde moderne est de plus en plus connecté, et le smartphone, loin d'être un simple
accessoire, s'est imposé comme une extension essentielle de nous-meme.
Pour une personne malvoyante, le smartphone ne représente pas seulement une commodité, mais un formidable outil d'émancipation, capable d'ouvrir de nouvelles portes vers l'autonomie et l'inclusion.
Si les premiers pas avec un écran tactile peuvent sembler intimidants, il est crucial de comprendre que la technologie est conçue pour s'adapter à l'utilisateur, et non l'inverse.
Les smartphones Android, en particulier, sont équipés d'une suite de fonctionnalités d'accessibilité natives et s'appuient sur un écosystème d'applications qui transforment les barrières visuelles en de simples défis à relever.
Cet article vise à démystifier ces outils, à les rendre accessibles et à montrer comment ils peuvent être intégrés dans le quotidien pour en faire un allié fiable.
1 - Les bases de l'"accessibilité Android"
Ces fonctionnalités, souvent activables en quelques instants, constituent le socle de l'expérience Android pour les personnes malvoyantes.
1.1. La Voix qui vous guide : Le lecteur d'écran TalkBack
Le cœur du système d'accessibilité d'Android est sans doute TalkBack, un lecteur d'écran développé par Google. Il ne se limite pas à lire ce qui est affiché sur l'écran, mais transforme la manière même d'interagir avec l'appareil.
Lorsque TalkBack est activé, il devient votre guide auditif, décrivant vos actions et vous informant des alertes et notifications en temps réel.
Pour les personnes non-voyantes, cela permet un contrôle total de l'appareil sans avoir besoin de le regarder, en se fiant exclusivement au retour vocal et aux signaux sonores.
S'habituer à une nouvelle gestuelle peut être un défi majeur, un aspect que des utilisateurs expérimentés comme Stéphane Hagues reconnaissent comme un obstacle notable.(Voir activer TalkBach)
En effet, utiliser TalkBack, c'est comme apprendre un nouveau langage tactile, où chaque geste a son propre sens.
Ce langage se base sur un principe de navigation à deux étapes :
- en touchant l'écran avec un seul doigt, le téléphone énonce l'élément sélectionné (une application, une icône, un bouton, etc.), tandis qu'un cadre entoure cet élément pour le signaler visuellement.
- Une fois que l'élément souhaité est identifié, un double tapotement avec le même doigt permet de l'ouvrir ou de l'activer.
Pour se déplacer d'un élément à l'autre, un simple balayage vers la droite ou vers la gauche avec un doigt suffit.
Pour les tâches qui requièrent un défilement, comme la lecture d'une longue page web ou d'une liste d'applications, deux doigts glissés vers le haut ou vers le bas sur l'écran permettent de naviguer sans activer d'éléments.
La saisie de texte est également facilitée grâce au clavier braille TalkBack, qui permet de taper du braille à six points directement sur l'écran du téléphone.
Les gestes peuvent varier en fonction de la version de TalkBack et du fabricant, notamment avec l'introduction des gestes multi-doigts sur des versions plus récentes (TalkBack 9.1 et plus) et sur certains appareils comme les Google Pixel ou les Samsung Galaxy.
Pour faciliter l'apprentissage, le tableau suivant présente les gestes les plus courants de TalkBack, servant de ressource pratique pour la familiarisation et l'entraînement.
1.2. Un monde à la carte : L'affichage et la loupe
Pour les personnes atteintes de basse vision, l'ajustement des paramètres d'affichage est la première étape vers une utilisation plus confortable. Android offre une série d'options de contraste et de couleur qui peuvent être adaptées à des sensibilités visuelles variées.
- Le thème sombre inverse les couleurs de l'interface pour afficher du texte clair sur un fond sombre, réduisant la fatigue oculaire.
- L'inversion des couleurs fait l'opposé pour l'ensemble de l'écran, tandis que la
- Correction des couleurs permet de filtrer ou d'ajuster l'affichage pour compenser différentes formes de daltonisme.Une autre option, le
- Texte avec contour, facilite la lecture en encadrant le texte avec une bordure contrastée, bien que cette fonctionnalité ne soit disponible que sur Android 16 et les versions ultérieures. Pour les appareils plus anciens, le texte à contraste élevé est une alternative efficace.
- La fonction d'Agrandissement : en complément de ces options de personnalisation, la fonction d'Agrandissement permet de zoomer ou d'agrandir temporairement l'écran.
Cette fonction peut être activée via plusieurs raccourcis : un bouton dédié d'accessibilité, le maintien simultané des deux boutons de volume, ou un triple tapotement rapide sur l'écran. Il est à noter que le triple tapotement peut introduire un léger délai de réaction sur l'appareil car il attend de déterminer si l'utilisateur tapote trois fois.
En outre, les téléphones Google Pixel 5 et plus récents disposent d'une application dédiée, la Loupe, qui va au-delà de la simple magnification d'écran.
L'application permet de lire du texte fin, de prendre des photos avec un zoom puissant sur des objets éloignés comme des panneaux de signalisation ou des scènes de concert.
Cette application met en évidence la tendance des fabricants à développer des outils d'accessibilité spécifiques qui s'ajoutent aux fonctionnalités de base d'Android.
1.3. L'ouïe à la rescousse : L'audio et les notifications sonores
Les fonctionnalités d'accessibilité d'Android ne se limitent pas à la vue, elles exploitent également l'ouïe pour compenser le manque de retour visuel.
Les Notifications de sons sont une aide précieuse dans la vie quotidienne, car elles permettent au téléphone de reconnaître des sons spécifiques dans l'environnement, comme la sonnerie d'une alarme incendie ou une sonnette de porte, et d'en avertir l'utilisateur par une notification visuelle et/ou haptique.
Cette capacité de détection sonore procure une conscience de l'environnement qui est cruciale pour la sécurité et l'autonomie à domicile.
Pour les médias, Android 13 et les versions ultérieures ont introduit l'Audiodescription, une option d'accessibilité qui lit une description des images contenues dans les vidéos.
Cette fonction, dont la disponibilité dépend du contenu et du fournisseur, offre un accès plus riche à l'information et au divertissement. De plus, l'Amplificateur de son permet d'utiliser des écouteurs, filaires ou Bluetooth, pour mieux entendre les sons de l'environnement ou du téléphone.
Ces outils audio, couplés à une compatibilité native avec les appareils auditifs, renforcent l'indépendance de l'utilisateur en s'intégrant directement à leur équipement personnel.
2 - Maîtriser son appareil : de la configuration aux nuances constructeur
Une fois les fondations posées, il est essentiel de comprendre comment activer ces fonctionnalités et de naviguer dans la complexité du paysage Android, où les expériences peuvent varier considérablement d'un appareil à l'autre.
2.1. Premiers pas : activer et configurer les fonctionnalités essentielles
L'activation des fonctionnalités d'accessibilité est conçue pour être aussi simple que possible, même lors de la première configuration d'un nouvel appareil.
Pour TalkBack, le raccourci le plus universel est de maintenir les deux boutons de volume enfoncés pendant quelques secondes. Une fois le téléphone configuré, ce raccourci peut être maintenu pour activer ou désactiver rapidement la fonctionnalité.
En dehors des raccourcis, il existe d'autres méthodes de configuration. La plus courante consiste à naviguer dans les paramètres du téléphone, en se dirigeant vers Paramètres > Accessibilité > TalkBack. Une fois le paramètre trouvé, il suffit d'activer l'option.
Pour une activation encore plus simple, l'Assistant Google peut être utilisé avec une simple commande vocale : "Hey Google, active TalkBack" ou "Hey Google, désactive TalkBack".
La fonction d'agrandissement se configure de manière similaire, via le chemin Paramètres > Accessibilité > Agrandissement.
Les options de raccourci sont variées et permettent à l'utilisateur de choisir ce qui lui convient le mieux : un bouton d'accessibilité sur l'écran, le maintien des boutons de volume, ou le triple tapotement.
Il est d'ailleurs utile de rappeler qu'il est possible de désactiver le raccourci des boutons de volume si l'on ne souhaite pas l'utiliser, ce qui peut éviter une activation accidentelle.
2.2. Des expériences différentes : la fragmentation Android et les marques
Le principal défi de l'écosystème Android est sa fragmentation, c'est-à-dire l'existence de multiples versions et surcouches logicielles (UI) développées par les fabricants (OEM). Cela signifie que l'expérience utilisateur, y compris l'accessibilité, peut différer d'un appareil à l'autre, comme entre un Google Pixel (qui utilise Android "stock") et un Samsung Galaxy (qui utilise la surcouche One UI).
Un utilisateur de Samsung, par exemple, pourrait constater que la fonction TalkBack est nommée Voice Assistant ou Screen reader. Cette différence de terminologie, bien que mineure, peut être une source de confusion. Au-delà des noms, la philosophie de conception de la surcouche logicielle influence l'ensemble de l'expérience. Samsung One UI est connu pour être une interface plus riche en fonctionnalités, avec une navigation optimisée pour une utilisation à une main en plaçant les éléments clés en bas de l'écran.
Cependant, cette richesse logicielle peut rendre le système plus lourd, surtout sur les appareils de milieu de gamme. En contraste, Android "stock", tel qu'on le trouve sur les téléphones Google Pixel, est apprécié pour sa légèreté, sa rapidité et son design minimaliste.
Cette variation entre les interfaces souligne un point crucial pour l'utilisateur : il n'est pas anormal que deux téléphones Android fonctionnent différemment. Un utilisateur malvoyant, dont le rapport à l'interface est souvent basé sur la mémorisation et la cohérence, doit être conscient que des changements de navigation peuvent survenir lorsqu'il change de marque de téléphone.
Le tableau suivant met en évidence les différences clés entre les deux interfaces principales, offrant une boussole dans cet environnement fragmenté.
2.3. L'Évolution constante : les apports des versions d'Android
L'écosystème Android ne se contente pas de varier d'un fabricant à l'autre ; il évolue constamment, apportant de nouvelles améliorations qui enrichissent l'expérience d'accessibilité. Le passage d'Android 13 à Android 14 illustre parfaitement cette évolution, avec des ajouts significatifs pour les utilisateurs ayant une basse vision.
Android 14 a introduit une mise à l'échelle de la police pouvant atteindre 200%, un progrès considérable par rapport aux 130% d'Android 13. Plus important encore, cette version a inauguré la mise à l'échelle non linéaire des titres.
Cette innovation est une démonstration de la maturation de la conception axée sur l'accessibilité. Auparavant, un simple agrandissement proportionnel du texte pouvait rendre les titres déjà grands de manière disproportionnée, encombrant l'interface et rendant la navigation difficile.
La mise à l'échelle non linéaire empêche les titres de devenir trop grands, préservant ainsi la lisibilité et l'harmonie de l'interface.
Ce développement montre que Google ne se contente plus d'une approche unique et simpliste pour l'accessibilité, mais qu'il écoute les besoins précis des utilisateurs, améliorant non seulement l'agrandissement, mais aussi la qualité de l'expérience utilisateur globale.
3 - Au-delà du téléphone : l'Intelligence Artificielle au service de l'autonomie
Le smartphone lui-même n'est qu'une plateforme. Sa véritable puissance réside dans l'écosystème d'applications qui, grâce à l'intelligence artificielle, peuvent accomplir des tâches qui étaient impensables il y a encore quelques années.
Ces applications, souvent gratuites, agissent comme des extensions de la perception, transformant la caméra en un outil de reconnaissance et de compréhension du monde.
3.1. Vos nouveaux yeux : les applications de vision assistée
Parmi les applications les plus révolutionnaires, Google Lookout se diestingue. Ctte application utilise la vision par ordinateur et l'intelligence artificielle générative pour assister les personnes malvoyantes dans leurs tâches quotidiennes.
Lookout propose plusieurs modes dédiés à des cas d'usage précis :
Le mode Texte lit à voix haute n'importe quel texte que l'on pointe avec la caméra, ce qui est idéal pour trier le courrier ou lire une notice.
Le mode Documents est conçu pour capturer des pages entières de texte et en extraire le contenu lisible.
Le mode Monnaie permet d'identifier rapidement et de manière fiable les billets de banque, bien que cela ne soit disponible que pour certaines devises comme les dollars, les euros et les roupies indiennes.
Le mode Étiquettes alimentaires identifie les produits emballés via leur code-barres.
Le mode Trouver permet de localiser des objets spécifiques dans l'environnement, comme des portes, des tasses ou des véhicules.
Le mode Images permet de capturer, de télécharger ou de partager une image pour en obtenir une description détaillée, et même de poser des questions de suivi à l'IA (disponible en anglais).
Il est important de noter la distinction entre Google Lookout et une autre application de Google, Google Lens. Tandis que Google Lens agit comme un ami qui répond à une question posée (réactif), Google Lookout se comporte davantage comme un ami qui commente continuellement l'environnement (proactif).
Cette narration en temps réel procure un sentiment de conscience situationnelle, transformant l'outil d'une simple fonction de recherche ponctuelle en un assistant permanent, essentiel pour la sécurité et la navigation.
3.2. L'Alliance de l'humain et de la machine : Be My Eyes
L'application Be My Eyes est un exemple puissant de la manière dont la technologie peut fusionner avec l'empathie humaine. Le concept est simple : elle connecte des utilisateurs malvoyants avec un vaste réseau de bénévoles voyants via un appel vidéo en direct, leur permettant de "prêter leurs yeux" pour des tâches complexes.
Les appels sont généralement répondus en moins d'une minute. Des cas d'usage concrets illustrent son utilité : lire un message d'erreur sur une chaudière, vérifier une date de péremption, ou s'assurer que les lumières sont éteintes.
Be My Eyes a également intégré l'intelligence artificielle avec sa fonctionnalité Be My AI.
Cette fonction permet de prendre une photo et de recevoir une description détaillée de la scène, avec la possibilité de poser des questions de suivi à l'IA pour obtenir plus de détails.
L'existence de Be My Eyes illustre une réalité cruciale : si l'IA peut accomplir des prouesses, elle ne peut pas encore remplacer le jugement, la nuance et l'empathie humaine.
Par exemple, un utilisateur a déploré que Lookout ne puisse pas identifier une couleur pour l'aider à s'habiller.
Le recours à un bénévole via Be My Eyes pour des tâches complexes qui nécessitent un jugement personnel (comme choisir une tenue ou l'aider à lire une ordonnance pour des médicaments) démontre que les solutions les plus efficaces sont celles qui combinent la puissance de l'IA avec la touche irremplaçable de l'assistance humaine.
3.3. Des solutions ciblées pour le quotidien
Au-delà des applications généralistes, d'autres outils spécialisés ciblent des besoins très spécifiques. L'application française Vocaléo utilise la technologie NFC pour créer des "objets parlants".
L'utilisateur associe un mémo vocal à une petite balise NFC, qu'il colle sur un objet du quotidien (comme une boîte de médicament, un vêtement ou un appareil électroménager).
En approchant simplement son téléphone de la balise, l'enregistrement se déclenche, fournissant des informations essentielles comme la posologie d'un médicament, la date de péremption d'un aliment, ou les réglages d'un four.
De son côté, l'application EMVI (My Visual Assistant) se positionne comme un assistant visuel en temps réel, capable d'analyser l'environnement à la demande. Les démonstrations montrent sa capacité à décrire une scène de rue, à identifier des obstacles sur le chemin et même à répondre à des questions sur la couleur d'un objet.
Afin de naviguer dans ce large éventail de possibilités, le tableau suivant présente un aperçu des applications d'IA les plus utiles pour le quotidien.
4 - Le facteur humain : défis, communauté et perspectives
L'intégration de ces technologies dans le quotidien n'est pas sans défis. Le monde numérique reste un espace en constante évolution, et l'utilisateur, qu'il soit malvoyant ou voyant, doit s'adapter en permanence.
Les témoignages d'utilisateurs expérimentés comme Sohail et Stéphane Hagues apportent un éclairage essentiel sur les obstacles persistants et la nécessité d'une approche plus inclusive.
4.1. Les obstacles persistants : une réalité du Monde Numérique
Malgré les avancées technologiques, l'accessibilité universelle demeure un objectif lointain.
Le principal problème ne réside pas tant dans le manque d'outils, mais dans la manière dont les interfaces sont conçues.
Un utilisateur a souligné que certaines applications peuvent être semi-accessibles ou non-accessibles, empêchant toute navigation et rendant le contenu muet pour un lecteur d'écran.
Les développeurs qui privilégient la conception visuelle au détriment de la structure sémantique créent des obstacles majeurs.
Par exemple, l'utilisation de balises à des fins de mise en forme visuelle plutôt que pour leur fonction sémantique de hiérarchie des titres peut désorienter un utilisateur de lecteur d'écran.
De même, une disposition anarchique des titres rend la navigation complexe et le réapprentissage constant nécessaire à chaque mise à jour peut être épuisant.
La difficulté réside dans le fait que ces mauvaises pratiques de conception forcent les utilisateurs à devenir des "spécialistes en informatique" pour naviguer dans un monde qui devrait être intuitif.
Le rapport entre la conception et l'expérience utilisateur est clair : une conception qui ne respecte pas les meilleures pratiques sémantiques mène directement à la rupture des fonctionnalités du lecteur d'écran, ce qui entraîne une exclusion.
L'enjeu n'est pas de créer plus d'outils, mais de s'assurer que les outils existants peuvent fonctionner correctement avec toutes les interfaces, partout.
4.2. Ensemble, c'est mieux : le rôle de la communauté
Face à ces défis, le rôle de la communauté est primordial.
Les forums, les groupes de soutien et les témoignages d'utilisateurs offrent des plateformes pour partager des astuces, résoudre des problèmes et valider des expériences.
C'est aussi à travers ces interactions que les utilisateurs découvrent de nouvelles applications et se forment aux subtilités de la navigation. La formation continue est un élément clé de l'autonomie, et la collaboration avec des services de soutien dédiés, tels que l'équipe Google Disability Support, est une ressource précieuse.
En se connectant avec d'autres utilisateurs et des experts, on peut surmonter les frustrations et adapter son utilisation du smartphone pour en tirer le meilleur parti.
Conclusion : votre autonomie entre vos mains
Le smartphone Android a transcendé son rôle initial d'appareil de communication pour devenir un compagnon d'autonomie pour les personnes malvoyantes. De la voix de TalkBack aux applications d'intelligence artificielle comme Google Lookout et Be My Eyes, un éventail de solutions est désormais à portée de main pour faciliter les tâches les plus élémentaires.
Cependant, il est important d'aborder ce voyage avec une perspective réaliste. Les défis persistent en raison de la fragmentation logicielle et des pratiques de conception inconsistantes.
Mais l'évolution de la technologie, comme l'amélioration de la mise à l'échelle du texte dans Android 14, démontre que le chemin est tracé vers des solutions plus nuancées et plus conviviales.
En fin de compte, la clé de l'indépendance réside dans une approche proactive : s'approprier les outils natifs, les applications spécifiques, explorer le potentiel des applications d'IA, et s'appuyer sur le soutien inestimable de la communauté.