Carte heuristique autour d’Unicode

Cette carte a pour vocation de présenter sous forme graphique toutes les ressources que l’on peut mobiliser sur le Web à propos d’Unicode (et plus particulièrement à propos d’Unicode en bibliothèque).

Chaque branche principale privilégie une approche et des besoins d’utilisateurs différents :

Se renseigner sur Unicode recense des définitions générales de premier niveau et des ressources bibliographiques sur la question ;

Utiliser Unicode décline les outils nécessaires à la saisie ou à la lecture de textes dans un autre alphabet, tant pour les usagers des bibliothèques ou le grand public que pour les professionnels ayant à cataloguer des documents en caractères non latins ;

– Enfin, Quelles ressources pour quel alphabet vous offre un panorama des outils classés par langues ou alphabets non latin (asiatique, cyrillique, arabe et grec principalement).

Cliquez sur l’image pour ouvrir la carte et naviguer dans l’arborescence dynamique !

Carte heuristique sur Unicode en bibliothèque

Panorama des ressources recensées autour d'Unicode

Petite légende à l’intention des lecteurs qui ne sont pas familiers des cartes heuristiques :

– En cliquant sur les + et les placés aux embranchements, vous pouvez à l’envi naviguer dans l’arborescence et déployer plus ou moins chaque branche ;

– Une petite flèche  en haut à droite des bulles de la carte signifie qu’un lien actif vers un site ou une ressource en ligne prolonge la branche de la carte sur le Web ;

– Une petite « fiche » jaune placée dans la bulle ouvre une note explicative quand le curseur de la souris glisse dessus ;

– Un petit trombone dans une bulle indique qu’un document y est attaché.

Unicode pour les Nuls

Qui n’a jamais reçu un message électronique illisible ou essayé en vain d’afficher en caractères lisibles une page Internet où tous les caractères accentués sont remplacés par d’étranges combinaisons (comme « Ã© » pour les accents aigus), dans le meilleur des cas, quand des rectangles vides ne remplacent pas bonnement et simplement des caractères ou des symboles ?

Comment ça marche ?

Commençons par le commencement… et les principes fondamentaux de l’informatique. Toutes les données que nous voyons s’afficher sur les écrans de nos ordinateurs sont en réalité le résultat d’un codage en chiffres. L’informatique est basée sur le concept de langage binaire. Chaque chiffre binaire est appelé bit, un octet regroupant 8 bits. Aujourd’hui, la quasi totalité des microprocesseurs – les composants d’ordinateur exécutant les instructions – travaillent avec des mots de 8, 16, 32 ou 64 bits. Avec 2 bits, on peut avoir quatre « états » différents : 00, 01, 10, 11.  Avec 3 bits, huit états différents : 000, 001, 010, 011, 100, 101, 110, 111. Avec 8 bits, on aura 256 possibilités.

Un caractère est donc codé par une série de « 0 » ou de « 1 ».  Ainsi, en supposant des caractères définis sur un octet, la suite : 0111 0001 va définir la lettre « q » dans le codage ASCII sur 8 bits. C’est ce que l’on appelle le codage binaire du caractère.

Assez souvent, les logiciels de nos ordinateurs sont paramétrés sur un codage de 8 bits, c’est pour cela que l’on voit parfois apparaître dans les options de paramétrage le champ « UTF 8 » (pour UCS Transformation Format). C’est un des formats de codage les plus courants, qui gère tous les caractères Unicode dans les systèmes ASCII préexistants. Comme Monsieur Jourdain, nous faisons donc quotidiennement de l’Unicode sans le savoir, tout simplement parce que la mention « Unicode » se cache sous le pseudo d’ « UTF 8 » ! Deux autres formes de codage d’Unicode en UTF existent : UTF 32 et UTF 16. Par ailleurs, le standard Unicode se conforme à la norme ISO/CEI 1046 pour affecter (donner un numéro) et nommer les caractères.

On peut définir un jeu de caractères comme la combinaison entre un répertoire de caractères et les codages correspondants. Un répertoire de caractères, c’est une liste comportant un glyphe pour chaque caractère, un nom pour chaque caractère et éventuellement certaines caractéristiques d’utilisation de ce jeu de caractères par rapport au répertoire.

Avant l’invention d’Unicode, des centaines de systèmes de codage de caractères ont été créés, souvent incompatibles entre eux. Lorsque mon ordinateur affiche de manière altérée des caractères accentués, c’est qu’il utilise pour lire l’information un autre standard d’encodage que celui avec lequel elle a été codée.

Unicode et ses apports

Le standard Unicode constitue une révolution car il spécifie un numéro unique pour chaque caractère, quelle que soit la plate-forme, quel que soit le logiciel et quelle que soit la langue. Son originalité réside dans le fait qu’il prend en charge à la fois la gestion du codage, la directionnalité (c’est-à-dire qu’il gère aussi bien les langues s’écrivant de gauche à droite que celles, comme l’hébreu, s’écrivant de droite à gauche) et les caractères écrits de façon différente selon leur position dans le mot (en arabe, par exemple). Unicode définit des conversions exactes entre son répertoire et d’autres normes largement répandues.

D’un point de vue économique, Unicode permet donc aux développeurs et vendeurs de logiciels informatique de viser un marché international, puisque les métadonnées, grâce à Unicode, deviennent lisibles partout, car tous les caractères utilisés dans toutes les langues du monde peuvent être codés en Unicode.

Unicode, c’est donc l’universalité, l’unicité, l’efficacité, la stabilité, la convertibilité.

« Abece : Dorbs un rutala myusu barnim / pa I. Ritina paraugim sast. latgalisu skolu darbiniki; - Pleskava, 1920 ».

♦ Pour aller plus loin :

Pour en savoir plus sur les applications pratiques d’Unicode, consulter sur notre blog les billets sur les claviers virtuels et les applications pratiques d’Unicode sur Internet.

Un vaste répertoire en ligne de fontes Unicode. Consulté le 23 juin 2010.

Une base de données des glyphes spécifiques aux différentes langues utilisant alphabet latin ou cyrillique. Consulté le 23 juin 2010.

Le site personnel d’Alan Wood, avec pages de tests, conseils et liens vers les polices permettant d’afficher les blocs d’Unicode. Consulté le 23 juin 2010.

Un site proposant les images de l’ensemble des caractères d’Unicode. Consulté le 23 juin 2010.

L’article de Wikipédia sur Unicode. [en ligne] Consulté le 23 juin 2010.

ANDRIES, Patrick. « Introduction à Unicode et à l’ISO 10646 ». Document numérique, 2002/3-4, Volume 6, p. 51-88. [en ligne] Consulté le 05 juin 2010.

ANDRIES, Patrick. « Unicode ». Encyclopédie Larousse en ligne, 15 avril 2008. [en ligne] Consulté le 6 juin 2010.

ANDRIES, Patrick. Unicode 5.O en pratique : codage des caractères et internationalisation des logiciels et des documents. Paris, Dunod, 2008, 399 p.

CONSORTIUM UNICODE. The Unicode Standard, Version 5.0. Addison-Wesley, Boston, 2007, 1 472 p.

DESRICHARD, Yves. « Petit précis de codage des caractères ». BBF, 2007, n° 3, p. 22-27. [en ligne] Consulté le 16 juin 2010.

Fiche pratique : Unicode au quotidien

Après une petite mise au point dans « Unicode pour les Nuls », voici une présentation du versant « pratique » d’Unicode, applicable aussi bien dans un traitement de texte que dans un logiciel de messagerie, au quotidien (car ces outils font aussi partie de l’ordinaire des bibliothèques !). Pour ce billet, le guide Unicode 5.0 en pratique : codage des caractères et internationaliation des logiciels et des documents de Patrick Andries nous a été très utile.

Ma police est-elle « Unicode-compatible » ?

Il existe plusieurs façon de vérifier que notre police préférée peut être utilisée avec des textes Unicode. Pour les ordinateurs qui tournent sous Windows, il faut au préalable télécharger et installer librement un logiciel Microsoft. Une fois ces étapes franchies, il suffit d’aller sur une police (dans le répertoire « Polices » du panneau de configuration), de faire apparaître le menu contextuel en faisant un clic droit et de choisir « Propriétés ». Une boîte de dialogue apparaît. Il convient de choisir l’onglet « CharSet / Unicode » pour vérifier que le premier encadré porte bien une mention du type « Font Encoding Type : Unicode ISO 10646-2 ». Les encarts suivants dans la fenêtre indiquent quels caractères cette police supporte  (latins mais aussi bien souvent cyrilliques, grecs, turcs etc.).

Pour les addicts d’autres systèmes d’exploitation que Windows, il existe une deuxième solution pour vérifier que l’on utilise une police « Unicode-compatible », grâce à l‘outil « BabelMap » (répertorié dans les signets, rubrique Outils). Il faut le télécharger, puis l’installer et le démarrer. Allez dans « Outils » puis « Analyse de police ». Il est alors possible d’analyser la police et de voir tous les blocs Unicode qu’elle prend en charge. Si les caractères affichés pour un bloc dans « L’échantillon de texte » présenté en dessous ne correspondent pas aux noms de caractères (par exemple : vous voyez des caractères en arabe quand l’intitulé parle de « latin… »), votre police n’est pas Unicode-compatible.

NB : cette interface, contrairement à celle de Microsoft, est entièrement traduite en français !

Comment saisir des caractères Unicode ?

Il existe plusieurs possibilités pour saisir des caractères Unicode, selon le logiciel, la plate-forme, le document que l’on veut rédiger. Nous ne parlons pas ici des langues idéographiques, qui disposent de ressources supplémentaires.

– La méthode la plus simple consiste à utiliser le clavier « normal », grâce à une combinaison de touches affectée à un caractère. Cette combinaison comprends souvent les touches « Alt », « Alt Gr » ou « Ctrl ». Ainsi, la valeur hexadécimale correspondant à « È » est « Alt+0200 ». Néanmoins, si cette méthode est facile à maîtriser, elle n’est valable que lorsqu’on utilise un petit nombre de caractères Unicode de façon très courante. Dans le cas inverse, retenir de mémoire toutes les combinaisons attachées aux caractères devient vite un casse-tête.

– La technique de l’appel de caractères s’approche beaucoup, dans la méthode et les inconvénients,  de ce premier mode de saisie. Il s’agit d’appeler un caractère en composant son code sous forme de chaîne de caractères (par exemple « &#x00c8 » correspond à un « È », qui sera réinterprété comme tel dans les éditeurs HTML et XML).

– Pour contourner cette difficulté mnémotechnique, certains logiciels proposent un menu (c’est le cas de l’éditeur HTML de Mozilla, Composeur, par exemple), dans lequel il faut aller chercher l’option qui insère un caractère choisit. Cela peut également devenir rapidement fastidieux, d’autant plus que souvent, les éditeurs ne proposent qu’un nombre de caractères très limité.

– La technique de la sélection à partir d’un tableau (comme dans la version gratuite de WordPress par exemple) s’en approche beaucoup : à travers un menu, on appelle une grille,  dans laquelle on choisit le caractère que l’on veut. Contrairement au simple menu décrit précédemment, le choix est plus étendu. C’est le cas sous Open Office, quand on fait « Insertion / Caractères spéciaux ».

– Enfin, mixant la solution « tableau »  à l’écran et utilisation du clavier via une combinaison de touches, la technique du clavier virtuel a tendance à se développer, comme nous l’avons détaillé dans un autre billet qui traite aussi de l’utilisation de ce type de matériel en bibliothèque.

♦ Pour aller plus loin :

ANDRIES, Patrick. Unicode 5.O en pratique : codage des caractères et internationalisation des logiciels et des documents. Paris, Dunod, 2008, 399 p.

L’outil BabelMap, à télécharger gratuitement.

L’accessibilité multilingue des sites web (1) : lire une page web multi-écritures

La généralisation d’Unicode est encore incomplète et nombre de pages web utilisent encore des codages hétérogènes qui peuvent poser des problèmes d’affichage. Les sites des principales bibliothèques russes, par exemple, utilisent la norme win-1251 pour le codage des caractères cyrilliques (Bibliothèque nationale de Russie à Saint-Pétersbourg et Bibliothèque d’État de Russie à Moscou). L’internaute doit donc s’assurer que les paramètres de son navigateur sont réglés sur la détection automatique des caractères, ou au besoin, modifier lui-même la norme d’affichage.

Sous Firefox : Affichage/Encodage des caractères, puis sélection du jeu de caractères approprié.

Sous Internet Explorer : Affichage/Code puis sélection du jeu de caractères approprié.

Si des problèmes persistent, cela s’explique par l’absence de polices Unicode dans le système de l’ordinateur utilisé, ou bien l’absence de police supportant les caractères de l’écriture recherchée, notamment des polices CJK pour les écritures idéographiques d’Europe orientale. Il faut alors installer les polices appropriées, sous Internet Explorer comme sous Mozilla Firefox, dans le menu Outils/Options/Contenu/Police.

Billet de 1 rouble soviétique de 1961 : dans le cadre central sur fond blanc, la mention « un rouble » en russe est traduite dans les langues principales des différentes républiques de l’URSS
Billet de 1 rouble soviétique de 1961 : dans le cadre central sur fond blanc, la mention « un rouble » en russe est traduite dans les langues principales des différentes républiques de l’URSS.

Pour aller plus loin :

Fiche pratique pour l’affichage de caractères non latins, sur le site du Conseil national de recherches Canada. [en ligne] Consulté le 22 juin 2010.

Fiche pratique de la Bibliothèque du Congrès (en anglais). [en ligne] Consulté le 22 juin 2010.

Précautions particulières pour l’installation de polices Unicode supportant les écritures idéographiques sur le site du Council on East Asian Libraries (en anglais). [en ligne] Consulté le 22 juin 2010.

L’accessibilité multilingue des sites web (2) : construire une page web multilingue

Une page web multilingue doit intégrer des polices supportant les caractères propres à chaque écriture. La police la plus complète est la police Arial MS Unicode. Pour pouvoir jouer des différents jeux typographiques, la programmation devra donc s’assurer que les caractères propres à chaque écriture ou à chaque langue sont inclus dans les polices de caractère qu’il souhaite utiliser.

La page doit également intégrer, dans son architecture, les habitudes de lecture de l’écriture visée : lecture de droite à gauche pour l’hébreu et l’arabe, lecture verticale pour le chinois par exemple. En conséquence, la disposition des différentes cellules pourra être inversée : menu principal à droite et à gauche, transformation de bandeaux horizontaux en colonnes. La norme W3C s’efforce d’harmoniser les pratiques d’internationalisation des pages web pour faciliter la navigation et les conversions, notamment la reconnaissance automatique de l’encodage par les navigateurs.

Forme à imprimer

Forme à imprimer

Pour aller plus loin :

Le site de W3C. Consulté le 22 juin 2010. Voir notamment :

Généralités sur l’encodage

Généralités sur l’encodage en version française

Code des caractères en HTML et CSS

Spécification du codage dans les entêtes HTML

Base de données des glyphes spécifiques aux différentes langues utilisant alphabet latin ou cyrillique. [en ligne] Consulté le 22 juin 2010.

Le site personnel d’Alan Wood, recensant les différents blocs d’Unicode avec pages de tests, conseils et liens vers les polices. [en ligne] Consulté le 22 juin 2010.

Tutoriel sur les principes d’internationalisation des pages web. [en ligne] Consulté le 22 juin 2010.

L’accessibilité multilingue des sites web (3) : vers des URL multi-écritures ?

Si l’encodage du contenu d’une page web et de son intitulé est facilité par la généralisation d’Unicode, les URL (une URL est l’adresse du serveur abritant une page web) n’acceptent que l’alphabet latin, non accentué, car seule la norme ASCII est supportée à ce jour. Mais l’ICANN (Internet Corporation for Assigned Names and Numbers), l’autorité chargée de la gestion des noms de domaine, travaille désormais pour mettre en place des URL correspondant à l’écriture de la page web hébergée (International Domain Names, ou IDN) : ce principe a été voté le 30 octobre 2009 lors du congrès de l’organisation à Séoul, et les premiers enregistrements d’URL en caractères non-latins ont été ouverts en novembre. Mais les difficultés techniques persistent, notamment celles liées à la directionnalité des écritures.

Pour aller plus loin :

Deux articles relatifs au travail de l’ICANN pour l’internationalisation des URL:

« Les adresses web s’ouvrent aux alphabets du monde ». [en ligne] Consulté le 22 juin 2010.

« Cliquez sur وزارة-الأتصالات.مصر ». [en ligne] Consulté le 22 juin 2010.

Documents officiels de l’ICANN sur le sujet :

Internationalized Domain Names. [en ligne] Consulté le 22 juin 2010.

ICANN Bringing the Languages of the World to the Global Internet. [en ligne] Consulté le 22 juin 2010.

Médiation : Unicode, un outil au service du multiculturalisme ?

L’utilisation d’Unicode en bibliothèque permet une meilleure gestion des documents multiculturels en tenant compte de leur écriture d’origine : les modes de transcription multiples et le passage nécessaire par une notice en écriture latine laissent progressivement la place à un affichage dans l’écriture d’origine, souvent accompagné d’une translittération en alphabet latin. Au regard de la bibliothéconomie, ce progrès offre un plus grand confort de lecture aux locuteurs, qui n’ont plus besoin de maîtriser différents modes de transcription pour accéder aux documents en langue étrangère et permet l’harmonisation des points d’entrée et le partage de réservoirs de notices : les documents sont ainsi plus faciles à repérer et à localiser. Cette généralisation d’Unicode favorise également le développement d’une politique multiculturelle dans les bibliothèques.

"Passengers read in the streetcar, New Orlean, 1972"

« Passengers read in the streetcar, New Orleans, 1972 ».

Les bibliothèques publiques sont au service des communautés qu’elles desservent : si cet objectif politique donne lieu à des mises en œuvre et des interprétations différentes selon les pays et les traditions politiques, le principe d’une prise en compte de la diversité linguistique et culturelle des populations dans les collections des bibliothèques s’impose progressivement en Europe continentale et dans les pays anglo-saxons. Une politique documentaire multiculturelle cherche ainsi à considérer les attentes et les besoins des minorités issues de l’immigration, des travailleurs migrants et des réfugiés ou des minorités nationales. Cet effort est considéré comme un élément important pour garantir une égalité de services et d’accès à l’information pour l’ensemble de la population d’un lieu donné et comme un instrument efficace d’intégration politique et d’insertion sociale. Pour faire une place à ces groupes, il ne suffit cependant pas de leur offrir des collections qui correspondent à leur langue. Il faut également rendre ces collections disponibles et accessibles par une médiation et une offre de service tenant compte de la langue parlée par ces communautés. Les recommandations élaborées par le groupe de réflexion sur les services aux « populations multiculturelles » de l’IFLA insistent pour que :

– le matériel de bibliothèque soit fourni à chacun dans sa langue de prédilection et en fonction de sa propre culture ;

– les bibliothèques fournissent un service de référence et d’information dans les langues les plus utilisées.

Outre l’acquisition d’une documentation multilingue, cela implique donc une valorisation de ces collections à travers :

– un catalogue en caractères originaux facilement accessible, notamment via un catalogue collectif ;

– la mise à disposition du matériel de bibliothèques (guides, présentations) dans les langues parlées par ces communautés ;

– le développement d’une offre de services, des animations et une signalétique pensés pour ces groupes et répondant à leurs besoins spécifiques.

Dans cette logique, l’intérêt d’Unicode est de permettre aux populations migrantes et aux minorités nationales un accès à la bibliothèque qui ne passe pas impérativement par la médiation de la langue de la société d’accueil. Ces dispositifs facilitent l’accès aux ressources de la bibliothèque pour les migrants de fraîche date, qui maîtrisent mal la langue du pays d’accueil ; ils valorisent également la présence de ces communautés, leur donnant une visibilité culturelle et favorisent ainsi leur intégration et les échanges interculturels. Cette tradition est relativement ancienne et bien acceptée dans les pays anglo-saxons. La bibliothèque du Queens présente ainsi un exemple exceptionnel de politique multiculturelle qui touche aussi bien les collections que les services. Elle est plus récente et discutée en France, où l’acquisition du français est considérée comme un préalable à l’intégration des populations migrantes.

Illustration :

La page des Questions fréquentes de la bibliothèque publique d’Auckland en Nouvelle-Zélande ; outre l’anglais, on trouve dix langues qui visent soient les minorités nationales (les Maoris par exemple), soit les communautés issues de l’immigration. Neuf écritures différentes sont ainsi proposées sur une page codée en UTF-8. Les malvoyants peuvent également écouter chacune de ces versions linguistiques.

Pour aller plus loin :

Principes fondateurs de la bibliothèque multiculturelle

Manifeste de l’IFLA sur la bibliothèque multiculturelle (version française). [en ligne] Consulté le 16 juin 2010.

Les communautés culturelles, directives pour les bibliothèques (2e éd., 1998). [en ligne] Consulté le 16 juin 2010.

Dix raisons pour offrir des services multiculturels en bibliothèque. [en ligne] Consulté le 16 juin 2010.

La place des collections multilingues en bibliothèques : analyses comparatives de l’offre documentaire et des politiques de lecture publique en France et à l’étranger

BOUQUIN-KELLER, Hélène. « Les langues dites d’immigration dans les bibliothèques municipales françaises ». BBF, 2003, n° 5, p. 34-40. [en ligne] Consulté le 15 juin 2010.

GODONOU-DOSSOU, Nelly. L’accueil du public étranger en bibliothèque municipale : le cas de la bibliothèque municipale de Lyon. Villeurbanne : ENSSIB, mémoire d’études DCB, 2002. [en ligne] Consulté le 15 juin 2010.

LAURENCEAU, Amélia. Les Bibliothèques publiques du Québec face à la diversité culturelle. Villeurbanne, ENSSIB, mémoire d’études DCB, 2004. [en ligne] Consulté le 15 juin 2010.

PIRSICH, Volker. « Missions interculturelles des bibliothèques en Allemagne : tendances et perspectives ». BBF, 2009, n° 2, p. 68-71 [en ligne] Consulté le 15 juin 2010.

TACHEAU, Olivier. Bibliothèque publique et multiculturalisme aux États-Unis. Jalons pour repenser la situation française. Villeurbanne : ENSSIB, mémoires d’études DCB, 1997.

TADROS, Ramzi, GHIOLDI, Cécile, ROMANO, Raymond (dir.). Pluralité culturelle en actes. Un nouvel enjeu pour les bibliothèques publiques. Paris : ABF, 2004, 104 p.

e-ci a été mise à disposition au printemps 2005.

Interface professionnelle du SUDOC, WiniBW, présentant une notice  dont les zones sont doublées en chinois

Une notice présentant des zones doublées en chinois, interface professionnelle du SUDOC