Ouverture du Web vers les langues étrangères

Le W3C et l’IETF ont validé deux nouveaux standards qui permettront de mieux s’orienter sur Internet.

Le World Wide Web est un espace universel contenant tout l’Internet. Pour retrouver les différentes ressources (pages web et autres documents) on utilise des adresses standardisées par les Identificateurs Uniformes de Ressource (URIs).

“Dans la proposition initiale de Tim Berners-Lee (NDLR : directeur du W3C - en photo), ainsi que dans la première implémentation du Web, relativement peu de technologies étaient mises en œuvre. Il s’agissait des URIs, du protocole Hypertext Transfer (HTTP) et du langage de balises HyperText (HTML). Les URIs, sans doute plus essentiels qu’HTTP ou HTML, sont de simples chaînes de caractères qui référencent tout type de ressources Internet, tels que documents, personnes, etc. Les URIs peuvent être assimilés à la colle qui tient le Web dans son ensemble. Les IRIs étendent et renforcent cette colle, en permettant aux personnes d’identifier des ressources Web dans leur propre langue.”, nous explique le W3C.

Ainsi, les nouveaux standards URI (RFC 3986 écrit par Tim Berners-Lee du W3C, Roy Fielding de Day Software et Larry Masinter de Adobe Systems) et IRI (RFC 3987 écrit par Martin Dürst du W3C et Michel Suignard de Microsoft) apportent entre autre :

  • la possibilité d’utiliser un nom d’hôte (host) internationalisé une révision des caractères réservés
  • une clarification des ambiguités techniques de la précédente version (publiée en 1998)
  • une définition des caractères internationaux unique quelque soit le standard (RDF, XHTML, XML, …)
  • l’élargissement des caractères autorisés dans la plupart des standard du sous-ensemble US-ASCII (comprenant l’alphabet latin non accentué et les caractères de ponctuation, codés sur 7 bits) à l’ensemble de caractères universels (Unicode/ISO 10646, codés sur 16 bits avec possibilité d’extension à 20 bits)

Vous pourrez donc bientôt utiliser des accents ou des lettres non latines dans vos adresses web … en espérant que ces nouveaux standards soient rapidement pris en compte par les éditeurs de logiciels, dont la plupart sont membres du W3C (comme Microsoft, Mozilla Fondation, Google, Macromedia, Opera, …)

Lire cette news sur le site

Ca c’est bien !

Encore que pour que ca soit implémenté dans IE… membre du consortium ne veut pas forcément dire qu’on participe activement aux respects des normes :wink:

Mouais, pas sûr que ce soit si bien… Beaucoup d’Internautes n’utilisent plus les accents et autres caractères bizarroïdes (encore plus la génération SMS).

M’enfin ça va faire du bizness pour les registrars :slight_smile:

Ce n’est pas une bonne chose :frowning:

Le phishing et les cyber squatters vont s’en donner à coeur joie…

c’est triste, il y aura donc bientôt des endroits du web que je ne pourrais pas atteindre, faute de connaitre le sanscri et l’arabe (et aussi factuellement faute de savoir comment le taper sur mon clavier azerty)
:frowning: :frowning: :frowning:

@greee> T’en consulte tous les jours des sites en arabe?
C’est vrai en tout cas que le psihing et le cybersquat vont s’en donner à coeur jois, mais d’un côté c’est vrai que d’avoir des caractères accentués ça peut être quand même bien sympas…

Sauf qu’il faut aussi penser aux gens qui n’utilisent que le sanscri et l’arabe, ils ne seront plus obligé de se coltiner notre alphabet.

Sinon, c’est vrai que ca risque de creer des niches accessibles qu’a certaines personnes et on risque de perdre l’idée d’acces universelle à la connaissance (déjà bien mis à mal par l’arrivée massive du capitalisme sur le web).
Est ce qu’il est prévu de pouvoir acceder à des pages en utilisant les URI classiques ? (genre, une traduction, bien sur plus lourde, de l’adresse d’origine)

azerty-2000 -1 =azerty-1999 le cosmos dans l’espace.
mais pas du web.c’est vrais y a qu des français sur le net.

etrange réflexion… :sarcastic: ce n’est pas parce que certains ont completement perdu la faculté d’écrire un français correcte qu’il ne faut plus l’utiliser…

sent les interrogations venir
“Arf le site perso de dédé, c’est avec ou sans les accents ?”

ah, enfin une bonne nouvelle au milieu du torrent d’information négative de ce matin :oui:

Moi, ça m’inquiète beaucoup, cette mise en service.

J’en avais déjà entendu parlé, et discuté avec des amis, et je ne pense pas que ce soit une bonne chose.

Pourquoi ? Parce qu’il existe encore beaucoup de logiciels non-Unicode. Et puis parce que tu ne sais pas forcément taper tous les langages du monde avec ton clavier.

Alors, comment fera-t-on pour accéder, par exemple, à un site d’information officiel sur la Chine (un truc du genre www.中国.cn) ? Et je ne parle même pas des langues « à l’envers » par rapport aux nôtres, comme l’arabe…

Honnêtement, je suis très sceptique quant au futur de ces standards ! Mais je suis un grand partisan de l’Unicode partout, pour tous :wink:

La génération SMS…pfff…c’est une expression gentille pour dire semi-illettrés…c’est triste de pas maîtriser sa langue maternelle et d’infliger son indigence à tout le monde :frowning:
Perso un post qui n’est pas ecrit correctement je ne lis pas, en general c’est sans interêt de toutes facons, hmmm…

Bof.

Pour les caractères accentués, ça va faire des adresses encore plus lourdes à retenir (à ce stade ça sera plus facile de retenir les adresses IP :stuck_out_tongue: ).

Quant aux caratères non-latins (mais c’est aussi valable pour les caratères accentués), faut penser aux étudiants étrangers qui voudront consulter des sites de leur pays d’origine depuis un environnement latin (typiquement la babasse de leur Fac ou le cyber du coin, amuse-toi à écrire de l’arabe avec un clavier Azerty).

Au final, j’ai rien contre, à condition que ça implique une URL équivalente en caractères ASCII.

Pour l’arabe je ne sais pas, mais pour le chinois ou le japonais il existe des logiciels qui convertissent les caractères latins en kanji et kana, et qui fonctionnent très bien.

Pourquoi ? Parce qu’il existe encore beaucoup de logiciels non-Unicode.

Les développeurs sont de grosses feignasses ! Je pense que sur tous les OS récents, on dispose des API nécessaires et des environnements de développement adaptés pour gérer n’importe quel alphabet.
Évidemment, si le soft est écrit en pur ANSI-C et en assembleur, c’est moins facile.

Pour l’arabe je ne sais pas, mais pour le chinois ou le japonais il existe des logiciels qui convertissent les caractères latins en kanji et kana, et qui fonctionnent très bien.

Par contre sur clubic, j’arrive pas à écrire en japonais :/?(cf. ci dessous, j’ai droit a des points d’interrogation au lieu d’Hiragana)

???

C’est le forum qui ne doit pas les enregistrer correctement dans la base de données. Sur les forums phpBB ça fonctionne sans problème.
test : わかりません
Ah si, ça marche. Bizarre

Bien entendu, ce n’était pas mon propos :wink:

Je doute que microsoft prenne la peine d’integrer ces dernieres evolutions à internet explorer …
ça revient certainnement trop cher en recherche et developpement …