Le Web permet de faire circuler à une vitesse phénoménale des masses gargantuesques d’informations, ce qui n’est pas toujours nécessairement bon. En effet, comment retrouver la page qui nous donnera l’information souhaitée au milieu d’un tel océan documentaire? Quiconque entreprends une telle quête devra être prêt à filtrer et assimiler de nombreuses pages dans des temps records pour seulement espérer s’en sortir. Et quiconque voudra contribuer à la bibliothèque virtuelle mondiale devra aussi s’ajuster à la situation, notamment en trouvant une ou plusieurs façons de se démarquer de ses concurrents dans la sempiternelle lutte pour l’attention de l’auditoire. Dans ce contexte, le simple fait de voir sa page retrouvée est déjà, en soi, un exploit.
Les moteurs de recherche sont au cœur du Web. Sans eux, le réseau serait un fouillis inextricable de pages bigarrées où toute quête d’information serait une cause perdue d’avance. La puissance et la précision des moteurs de recherche du Web ne cessent d’augmenter, au point même de faire remonter à la surface des informations que plusieurs préféreraient oublier. Les ordinateurs peuvent avoir la mémoire bien longue, nous y reviendrons un de ces quatre.
Grands ou petits, les moteurs de recherche fonctionnent à peu près sur le même principe: ils parcourent successivement les pages Web qu’ils souhaitent inclure dans leurs recherches, qu’il s’agisse d’un seul site ou du Web en entier. (par exemple, Google[i] en visite plus d’un milliard et demi). Ces « robots » ou « spiders » y indexeront tous les mots qu’ils rencontreront selon les règles établies par leurs concepteurs, et les mettront en regard de la page où ils les ont trouvées. Leur module de repérage retrouvera ensuite dans cet index selon ses fonctions propres les terme recherchés, et les présentera à l’écran dans un ordre de pertinence déterminé selon ses réglages.
Mettez-moi à l’index svp!
Un diffuseur d’information aura tout intérêt à attirer l’attention des robots pour figurer dans l’index sous des termes stratégiques, et à être affiché le plus haut possible dans l’échelle de pertinence. Les chroniques de Cybérie[ii] nous ont fait découvrir une façon intéressante d’y arriver. On y cite un texte[iii] dont l’auteur soutient que le repérage des pages Web serait facilité en ajoutant dans leur corps même une ou plusieurs phrases s’inspirant du langage utilisé par l’internaute moyen dans une boîte de recherche. Cette technique serait plus efficace que l’ajout de mots-clés invisibles dans le code (metatags). Autrement dit si vous savez comment un internaute pourrait formuler une requête simple pour repérer un texte traitant du sujet que vous abordez, faites en sorte que le texte d’une telle requête se retrouve textuellement dans votre papier. Les robots auraient ainsi maintenant une influence directe sur le contenu diffusé et sur le style des auteurs! Cette technique qui rappelle la publicité subliminale paraît pleine de bon-sens à première vue, aussi rappelez-vous en lorsque vous composerez vos pages Web! Je vais d’ailleurs moi-même en faire l’essai, alors ignorez le bout de phrase suivant : « qui est le chroniqueur le plus intéressant du Web? ». Ça ne coûte pas cher d’essayer, non?
Un chausson avec ça?
Que diriez-vous que l’on fasse interdire les allumettes parce que quelques maniaques s’en servent pour mettre le feu? On qu’on rende illégale la possession d’aspirine parce qu’en ingurgiter 500 d’un coup peut vous tuer? Et que dire des microphones? On peut s’en servir pour espionner, alors pourquoi les tolérer? La vie serait plus sécuritaire ainsi, mais il faudrait oublier tout progrès.
La clé de voûte de toute réglementation ou de toute législation est la connaissance de la problématique à encadrer. Un législateur devrait normalement éviter de créer plus de problèmes qu’il ne veut en éliminer. C’est ce qui m’inquiète présentement en Europe où la Commission Européenne étudie la possibilité de carrément interdire le mouchard, ou « cookie »[iv]. Vous croyez qu’une telle nouvelle a de quoi réjouir un chroniqueur qui s’intéresse à la question de la vie privée sur le Web[v]? Pas du tout, car je n’ai rien contre les cookies. En faits ce n’est pas le mouchard lui-même qui est menaçant mais bien certains usages qu’on peut en faire. Je vous rappelle qu’un mouchard est un court fichier texte que l’ordinateur que vous visitez logera sur votre disque dur afin de vous reconnaître pendant votre navigation ou lors d’une visite subséquente. Or si ces mouchards peuvent servir à la création de profils extrêmement précis de notre personne, de nos habitudes de navigation ou de notre comportement sur le réseau lorsqu’utilisés dans un certain cadre, ils sont par ailleurs très utiles et même carrément indispensables dans certains autres.
S’il ne peut retrouver son mouchard, il sera tout à fait impossible au serveur visité de savoir que le chargement de deux pages successives de son site est demandé par un même visiteur. Toute procédure d’identification n’est pas nécessairement malhonnête. Adieu sécurité si le serveur ne peut garantir que c’est bien moi qui navigue dans mon compte de banque une fois la page d’accueil dépassée... C’est pour ça que ces bestioles ont été inventées. Interdisez-les et vous pouvez oublier la réalisation de transactions bancaires ou commerciales en ligne ou encore l’accès à des banques de données publiques comme les registres fonciers et mobiliers.
Le mouchard ne devient problématique que lorsqu’il est partagé par des serveurs autres que celui que vous visitez, ou lorsqu’il subsiste après la fin de votre session[vi]. Une intervention législative en la matière devrait se contenter de s’attarder à certains usages des mouchards. Les interdire complètement est une solution simpliste dangereuse, qui risque plus de nuire que d’aider. Pourquoi pas interdire les roues parce que les automobiles s’en servent pour nous écraser? M’enfin!
Les carottes sont-elles cuites pour le jambon en conserve?
Mais tout n’est pas gris dans les vieux pays. J’apprends en effet avec plaisir qu’on y a choisi d’appuyer la théorie du « opt-in » dans le dossier du pourriel[vii]. Ceci signifie que vous ne pourrez recevoir de courriels publicitaires non-sollicités, surnommés « spam »[viii], à moins d’avoir volontairement posé le geste de vous inscrire à la liste de diffusion. L’option contraire, l’« opt-out » autorise n’importe qui à vous envoyer n’importe quoi pourvu qu’il vous permette de vous retirer de la liste par après. Le pourriel est l’un des pires fléaux à affliger le Web aujourd’hui. On estime qu’il accapare près du tiers du volume total des messages électroniques qui y circulent, soit 10 millions de courriels chez AOL [ix] seulement. Ceci augmente la congestion du réseau et provoque une explosion des coûts reliés au traitement informatique quotidien de ces millions de messages inutiles[x]. Une telle nouvelle fait donc espérer des jours meilleurs où nous pourrons souhaite bon vent aux polluposteurs. Je ne pleurerai certainement pas en les voyant entrer au bureau de chômage..
À la prochaine!
P.S. la deuxième partie de mon article sur la loi concernant le cadre juridique des technologies de l’information ne sera finalement prêt que pour le numéro de février.
[i] http://www.google.com
[ii] http://cyberie.qc.ca/
[iii] Writing for Search Engines, http://searchenginewatch.com/searchday/01/sd0926-writing-se.html
[iv] Europe Goes After the Cookie , http://www.wired.com/news/politics/0,1283,48025,00.html
[v] voir la chronique « Sommes-nous seuls sur le Web ? » dans l’édition de l’Entracte du mois de mars 2001.
[vi] Il vous est possible de régler votre navigateur pour accepter seulement certains types de mouchards. Internet Explorer 6.0 offre d’ailleurs pas mal de choix en la matière.
[vii] Le Conseil des ministres européens tranche en faveur de l'opt'in http://www.journaldunet.com/0112/011210europespam.shtml
[viii] voir ma cybernote dans l’Entracte de juin 2001
[ix] America Online http://www.aol.com
[x] http://www.cauce.org/about/faq.shtml#costs
Aucun commentaire:
Enregistrer un commentaire