Utilisateur:Marcel
Cette page va présenter un exemple d’application des principes d’une disposition de clavier trimodale, avec un paradigme de touche morte revisité, offrant une fonctionnalité compose telle qu’elle devrait faire partie intégrante des normes. Autrement dit, si la France ou un autre pays normalise des claviers, ces derniers devraient inclure une fonctionnalité compose.
Approche
Pour répondre au mieux aux attentes de la normalisation, mener de front le développement du bépo et de l’azerty semble être une bonne approche, qui efface les clivages, laisse à chacun la liberté de choix et réduit ainsi le stress lié au changement, à condition que la progression soit nette sur l’ensemble des critères. Le but reste toujours de faciliter l’utilisation du clavier dans tous les secteurs d’activité. Pour limiter les discussions autour des lettres particulières à la seule accessibilité, la solution est le support de l’intégralité des quelques 1 600 caractères latins d’Unicode 8.0.0.
Le résultat doit être une carte épurée, qui déconcerte au minimum les utilisateurs venant de l’azerty, adaptée aussi bien aux professionnels qu’aux enfants, et qui assure autant la cohérence des fonctionnalités de chaque touche, que l’ergonomie des commandes les plus fréquentes dans une utilisation mixte clavier-souris. Le tout dans le cadre de l’implémentation nationale d’une ISO/CEI 9995 révisée, dans le sillage du mode opératoire allemand mais débouchant sur une solution autrement performante dont l’impact sur l’expérience utilisateur devrait être meilleur.
Le but ultime doit être de refermer la boucle ouverte en France il y a trente ans, et de mettre en place cette fameuse solution transposable à l’international sur laquelle se cristallisèrent les ambitions à l’issue d’une phase de réchauffement et sous l’impact des premiers échecs aux débuts de cette épopée. Aujourd’hui il est politiquement impossible à la France de ne pas implémenter ISO/CEI 9995, mais l’AFNOR peut à son tour, comme le DIN l’a fait avant elle, demander une révision de cette norme qui de toute manière a déjà subi plusieurs modifications. Le dernier mot n’a pas été dit, et il faut éviter à tout prix que les premiers claviers normalisés de France deviennent la victime d’une ISO/CEI 9995 inaboutie, réductrice, et irresponsable.
Qu’est-ce qu’une disposition trimodale ?
Plus une langue utilise de diacritiques et de lettres précomposées, plus sa disposition de clavier devient pénible pour coder et même pour écrire des courriers commerciaux avec des chiffres ou des articles historiques avec beaucoup de dates, mais aussi pour écrire la langue elle-même si les chiffres sont en majuscule et donc qu’il manque les majuscules diacritées. Si ce dernier problème est résolu en plaçant les chiffres en AltGr comme sur le clavier vietnamien de Windows et sur un clavier lituanien, les utilisateurs se plaignent évidemment encore plus. Pendant que les claviers Windows pour les Inuits utilisent la bascule VerrCap avec la fonctionnalité capitales suisses-allemandes pour basculer entre deux écritures, la plupart des langues non-latines doivent changer constamment de disposition de clavier par exemple pour l’HTML. C’est pourquoi l’auteur de KbdEdit conseille d’utiliser la bascule Kana, qui permet de basculer entre deux dispositions avec quatre niveaux complets pour chacune, si l’une des deux écritures peut se passer de bascule VerrCap (inactive avec Kana).
Sur les claviers français on peut placer la bascule Kana sur la touche E00 ($ du bépo, ² de l’azerty), et lui soumettre au minimum les 10 touches suivantes, mais pas les lettres non diacritées, ni les ponctuations sauf éventuelles exceptions. Les chiffres seront en accès direct quand la bascule – qu’on pourra appeler “Pro” comme programmeurs – est active, et ce quelle que soit la place des chiffres en mode par défaut. Si la touche Alt droite fonctionne comme AltGr, on aura quatre niveaux sur les touches des chiffres à complètement redéfinir pour le mode Pro, en inversant juste les chiffres et les symboles ou en mettant complètement autre chose en AltGr. Si les chiffres sont en AltGr, on les aura en accès direct, et éventuellement en (Maj+)AltGr ce qui était en accès direct. Si par contre la touche Alt droite fonctionne comme modificatrice Kana (soit Pro), les chiffres devront être en Pro en mode par défaut pour être en accès direct en mode Pro. Dans l’exemple de l’azerty, cela permet d’avoir les majuscules diacritées en Maj, les chiffres en Pro, et les symboles pour la programmation en Maj+Pro, et donc en Maj une fois que Pro est verrouillé. En incluant quatre autres touches dans la bascule, on peut avoir presque tout ASCII sur deux niveaux en mode Pro – ou un qwerty complet si toutes les touches d’une disposition non-latine sont soumises à la bascule.
Le troisième mode offre un pavé numérique comme le neo2 allemand et tout ce que l’on voudra sur les touches restantes : double et triple zéro, lettres pour l’hexadécimal, opérateurs mathématiques, degré-minutes-secondes, préfixes comme U+ et &#x, espace fine insécable (et espace normale), ponctuations… Ce mode est actif le temps que l’utilisateur garde un doigt sur la bascule VerrMaj/VerrCap. Une fois le champ rempli et la bascule lâchée, il faut réappuyer pour déverrouiller les capitales.
Si la bascule VerrCap est indésirable, on peut utiliser cette touche pour la bascule Pro, et ajouter la modificatrice pour le pavé numérique du troisième mode, ce qui libère la touche E00. Mais de toute manière le $ et le croisillon sont jugés trop éloignés, donc autant prendre cette touche pour la bascule Pro et placer le symbole monétaire sur S, au même niveau que l’€ et les accolades, et le croisillon sur C, ou sur D comme dièse. (Le eszett allemand est bien dans le groupe tréma qui est le diacritique de cette langue et qui n’existe pas avec S, et le ed – tout comme le thorn dont on abuse tellement – ont leur place en compose uniquement, sur les claviers non-islandais, avec dh et th comme séquences.)
Sous Windows, la modificatrice dn mode pavé numérique est Oyayubi droite, qui vient après Kana dans la liste, et qui est utilisée sur le clavier neo2. Si en plus d’appuyer sur VerrCap, on appuye sur Maj, on a un deuxième niveau dans ce mode, avec les opérateurs mathématiques à la place des opérateurs informatiques, par exemple. Ces deux niveaux doivent être doublés en Kana/Pro, pour que le pavé fonctionne quel que soit l’état de VerrPro. On dépasse ainsi facilement les 9 ou 10 niveaux auxquels le clavier semble être limité sous Windows, mais il suffit d’ajouter les définitions manquantes dans le header de la source du driver. (Je parle de Windows parce que je n’ai pas d’autre OS et que cela représente 91 % des PC du monde, et parce que les API clavier de Windows sont figées. contrairement à Linux où l’on peut sans doute ajouter tout ce que l’on souhaite pour toute nouvelle distribution.)
Faut-il tout mettre sur des touches ?
S’il est question de lettres particulières comme le æ et le œ, le ij, le ß, le ð et le þ, le ŋ et le ɲ, le ɛ et le ɔ, le ʒ, le ə, le ʌ, cela dépend de la langue du clavier, dont l’écriture doit bien sûr être facilement accessible, idéalement en accès direct. Les autres sont en tout cas en compose, éventuellement aussi en touche morte. Mais celles qui sont fréquemment doublées, ce serait effectivement bien de les mettre sur des touches, parce que 4 ou 6 frappes pour une voyelle longue c’est beaucoup.
Ici, “compose” c’est la fonctionnalité intégrée du clavier et qui fait donc partie de la spécification. Elle permet d’accéder à l’intégralité des 1 600 caractères latins, et plus si prévu, comme le compose que l’on connaît, sauf que sous Windows c’est dans le pilote de clavier. En complément il faut bien sûr utiliser WinCompose, mais pour écrire son écriture, on ne devrait avoir besoin ni de logiciels tiers, ni de dispositions bourrées de groupes et de niveaux avec 6 ou 9 caractères sur chaque touche.
La tendance officielle, qui domine ISO/CEI 9995 jusqu’à nos jours, consiste à partir du principe que même une personne qui n’a pas encore eu l’opportunité d’apprendre à se servir d’un ordinateur, ni à écrire à dix doigts et au toucher, et qui se voit réduite à chercher les lettres sur le clavier et à actionner les touches avec deux doigts maximum, doit pouvoir entrer son nom pourvu qu’elle utilise l’écriture latine. Cette tendance conduit à normaliser des claviers où tout ce qui est dans la disposition doit être gravé sur les touches à l’exception des lettres diacritées entrées par touche morte, dont seul le diacritique doit être gravé sur la touche ; et tout ce qui n’est pas gravé sur les touches ne doit pas être dans la disposition, sauf les minuscules ou les majuscules des lettres figurant sur les touches.
En Allemagne par exemple, cela a conduit à normaliser un clavier multilingue, le T3, qui n’existe pas sous forme de clavier physique et pour lequel aucun driver n’est disponible (à vérifier), et un clavier multilingue réduit, le T2, qui est en vente avec gravure conforme et pour lequel l’auteur de la norme propose un driver fait au MSKLC et qui ne fonctionne donc pas comme spécifié par la norme, mais qui contient toutes les lettres gravées sur les touches ou dont le diacritique figure sur une touche. Malgré tout cela, le T3 s’il existait autrement que sur le papier, permettrait d’écrire plusieurs langues africaines certes, mais pas toutes, notamment pas les plus importantes comme le bambara, et plusieurs langues américaines mais pas toutes. L’auteur de ce gâchis en est conscient, lui qui affirme noir sur blanc que cette norme supporte “aussi” plusieurs langues d’Afrique et d’Amérique. Pour ce faire, il a été nécessaire d’inclure dans ISO/CEI 10646 une liste de caractères d’un sous-ensemble qui devait s’appeler “jeu partiel international multilingue” et qui dans le groupe de travail d’ISO/CEI 10646 qui a voté son admission, a été vite renommé en “jeu partiel latin multilingue”, ce qui fait qu’après une série de protestations, l’ISO/CEI a été obligée d’ajouter une note comme quoi ce sous-jeu est celui auquel se réfère ISO/CEI 9995-3 (révisée de 2010) et qu’il ne permet pas d’écrire toutes les langues à écriture latine.
Ainsi la méthode d’agencement qui sépare les lettres en celles qui portent un ou plusieurs diacritiques “détachables” ou du moins pensés comme tels (barre, slash), et celles qui n’en portent pas mais qui ne sont pas “comme les autres” ou dont le “diacritique” se fond dans la forme (hameçon, crosse, rallonge, …), et qui place les premières dans le répertoire des touches mortes, les dernières sur des touches, conduit à créer des claviers assez complets pour perturber l’utilisateur non polyglotte et pour rendre la gravure des touches difficilement intelligible, mais toujours assez incomplets pour faire des déçus en laissant pour compte des langues et des communautés entières. Évidemment les responsables n’ont pas froid aux yeux pour argumenter par zones géographiques, se targuant qu’ISO/CEI 9995-3 permet d’écrire toutes les langues d’Europe à écriture latine plus le turc plus l’afrikaans plus le vietnamien, et avec cela plusieurs langues d’Amérique et d’Afrique…
Et ce alors qu’il suffirait de peu pour les écrire toutes : E ouvert, O ouvert, V tourné, lettres avec crosse… Mais il ne restait plus de place sur les touches pour le Ɛ, le Ɔ, le Ʌ, une touche morte “crosse”… sans compter qu’il aurait été compliqué de trouver – et normaliser ! – un graphisme représentant une crosse, parce que ce diacritique pointe tantôt vers l’avant, tantôt vers l’arrière. Ce n’est pas forcément de la méchanceté puisque, avant cela, l’auteur de la norme avait bien fait une disposition de clavier “extrême” comportant une touche morte “Afrique”. Difficile de savoir où se situait le blocage, si c’était le chef de projet au DIN, qui était d’origine turque, ou quelqu’un d’autre.
Une solution à ce problème consiste à normaliser des séquences compose et à utiliser la fonctionnalité d’enchaînement des touches mortes, présente sous Windows mais méconnue parce qu’elle n’est pas mise en avant, les utilisateurs étant censés ne pas aimer le fait d’appuyer sur plus de deux touches sans qu’il ne se passe rien après la deuxième… Je ne crois pas à ce stéréotype, et à mon avis en train d’apprendre une langue, on peut tout aussi bien apprendre quelques séquences compose. On sait que sur les claviers multilingues, les “autres” langues c’est plus du dépannage. Pour l’islandais par exemple, il faut le clavier islandais avec l’ö, l’ed, le thorn et le e dans le a en accès direct, et des touches mortes accents aigu, grave, circonflexe et rond en chef. Sauf que c’est un mélange entre un qwerty et un qwertz. Sur une disposition de clavier francophone, s’il reste de la place on peut bien sûr placer toutes ces lettres sur des touches, mais le thorn je préférerais ne pas, et le ed non plus parce que sa majuscule peut prêter à confusion avec le D barré et le D africain ; et il ne faudrait pas que ce soit au détriment de ce dont les Français se servent souvent, dont aussi le croisillon, le symbole dollar. Mais sur le R et le C en AltGr, j’avoue que je mettrais le Ɛ et le Ɔ plutôt que ces symboles commerciaux qui ne sont jamais répétés et que l’on attendrait plutôt en compose, comme cela a été dit sur la ML.
Une solution pour écrire son nom et plus, c’est de normaliser une aide à la saisie à interface graphique qui permet de choisir voire de diacriter les lettres. Apple l’a déjà, où un appui long sur une lettre, au lieu de répéter la lettre, affiche une bulle avec des variantes de la lettre. Il paraît qu’on oublie encore trop souvent que le clavier d’ordinateur s’utilise la plupart du temps avec un écran, qui peut afficher “aussi” une disposition de clavier et l’état du clavier après l’appui sur une touche s’il ne se passe rien par ailleurs. La normalisation de clavier quant à elle devrait se concentrer sur le clavier en tant qu’outil de travail, et sur la manière de transformer tout clavier existant en clavier multilingue complet, latin si c’est pour la France, ou non-latin plus latin (pour l’HTML).
Faut-il modifier le bépo ?
La tendance générale est à la complétion indolore qui ne remet pas en cause la carte simplifiée et la gravure des Typematrix™ 2030 existants. Mais il vaut mieux adopter une stratégie tournée vers l’avenir et qui ne reproduise pas les erreurs commises dans les années 1970 et 1980, quand un faible nombre de professionnels s’opposait farouchement à la clairvoyance de ceux qui recommandaient une optimisation ergonomique aussi de la disposition alphabétique juste avant la démocratisation des ordinateurs. L’optimisation que représente le bépo est considérable, mais elle n’est pas encore suffisante. Poursuivre son développement in extremis avant sa normalisation ne relève nullement de l’acharnement, c’est une démarche incontournable dans le respect des Français. Démonter et remonter quelques touches sur un certain nombre d’unités déià produites et vendues n’est rien face à cette responsabilité.
Pour nous motiver je vais commencer par secouer quelques vieux marroniers, espérant qu’au lieu d’être en fleurs – ou en pleurs ? – ils produisent maintenant leurs fruits, et qu’on ne va pas mal le prendre.
Par rapport au regroupement des voyelles, on pourrait s’interroger sur le pourquoi de la volonté de faciliter l’apprentissage d’une disposition de clavier au détriment de son utilisabilité (usability). N’est-on pas ainsi dans une même logique qu’en plaçant les lettres dans l’ordre alphabétique ? À mes yeux ce présupposé a été une erreur méthodologique, car cela ne sert presque à rien. August Dvorak a pu recourir à cette astuce aussi pour augmenter les chances de trouver la bonne disposition, parce qu’il ne pouvait pas faire calculer grand-chose à son époque.
Dans un souci d’efficacité, commencer par faire table rase n’est pas une condition de réussite. Tout ce qu’August Dvorak a repris du qwerty – le A, le M, les onze premières touches de la rangée des chiffres, les paires minuscule-majuscule aussi pour les ponctuations (pour maîtriser les coûts de fabrication et de formation peut-être aussi) – nous encourage aujourd’hui à ne pas hésiter à garder ce qu’il y a de bon dans l’azerty, surtout le bloc des ponctuations, déjà toutes groupées. Sur un clavier d’ordinateur cela ne vaut pas la peine non plus de déplacer les X, C et V, vu les fréquences de ces lettres. C’est déjà bien d’avoir repris le A du Dvorak et du qwerty, et d’avoir gardé le X à portée de main gauche lui aussi. Reste à rapprocher aussi le C et le V. L’impact sur l’ergonomie en écriture est quasiment nul, alors que pour les droitiers c’est un grand plus quand la souris est en action. Au moins les claviers latins – et quasiment eux seuls – ont la particularité de faire correspondre les identifiants de touches (Virtual Keys), qui comptent pour les raccourcis, avec les lettres produites par les touches. C’est une contrainte à bien garder en vue quand le but est la normalisation d’une disposition qui sera utilisée par l’Éducation nationale.
Si j’ai bien compris, le bépo est un mélange entre une disposition prédéfinie et une disposition calculée. Je pense que le secret de la formule est là, de mélanger plusieurs méthodes. Comme dans toute recette, la réussite dépend alors du choix de ces ingrédients, de leur dosage et de leur priorisation. La reprise de l’approche d’August Dvorak et la conception assistée par ordinateur sont à mon avis deux bons éléments. Il semblerait que tous les deux aient été légèrement surdosés, mais les concepteurs du bépo savaient faire preuve de discernement. Le regroupement sur la rangée de repos a ainsi subi des entorses en fonction de la carte d’accessibilité actuelle, contrairement au clavier Dvorak optimisé pour les machines mécaniques. Curieusement, le regroupement des voyelles sur un même côté, quant à lui, n’a pas été sacrifié à l’optimisation.
Le résultat de ce que j’appelle la CAO de la disposition a lui aussi bénéficié d’ajustements humains, même si cela a pu être perçu comme une hérésie alors que c’était du même ordre que le regroupement préconçu des voyelles. Une explication possible de cette perception est que la valeur attribuée à un principe de conception dépassait la valeur due à son utilité. Or contrairement à ce qui est vrai pour d’autres domaines, se concentrer sur l’utilité réelle n’est pas mauvais en soi en matière de dispositions de clavier. On peut ainsi se demander s’il y a eu instrumentalisation pour la contestation. Avec une telle attitude on est obligé de commencer par tout casser afin de construire de l’entièrement neuf. Toute reprise des bons éléments de l’azerty serait perçue comme une perpétuation de reliquats du passé, engendrant quotidiennement de douloureuses réminiscences. Ce n’était pas la démarche d’August Dvorak. “Menacer le monde avec des dispositions de clavier clivantes et controversées” était certainement la dernière chose à laquelle ce bienfaiteur de l’humanité aurait pu penser. Peut-être peut-on ainsi refermer la parenthèse philosophique que d’autres ont ouverte, ce qui était leur bon droit mais ne doit pas nuire à la normalisation d’une disposition de clavier ergonomique pour une nation entière.