«"Mesdames et messieurs, attention ! Je vais vous faire une chanson, le sujet en est ambitieux, de mon image je suis soucieux, en 1990, c'est l'heure des communications. » Vous reconnaissez, n'est-ce pas? Certaines chansons marquent leur époque, et 1990 est certainement l'une de celles-là. Simplement d'entendre ces premières mesures me ramène vingt ans en arrière, et me rappelle le soir où j'assistais en direct, avec des millions de personnes, à la première invasion de l'Irak par les américains.
Jean Leloup est un grand artiste, capable de capter les changements qui affectent la société. Mais en rétrospective, il aura eu une inspiration absolument prophétique en écrivant sa chanson. 1990 aura vraiment marqué l'ère des communications. Car 1990 aura vu l'invention du Web, au fond du laboratoire universitaire d'un jeune chercheur du CERN, Tim Berners-Lee. C'est en effet lui qui a eu l'idée de créer un système de communication public permettant de naviguer d'un document à l'autre par hyperliens cliquables, à l'aide d'un logiciel appelé « navigateur », de grouper les documents sous forme de « sites » identifiés par un nom (de domaine) et d'utiliser le réseau Internet pour les interconnecter. Le génie de ce chercheur n'a donc pas été tellement de créer des nouvelles technologies, mais bien de combiner des concepts déjà connus dans l'élaboration d'un système de communication qui allait carrément révolutionner l'humanité. Le World Wide Web était né.
Le réseau Internet existait depuis longtemps. Développé dans les années soixante pour assurer le maintien des communications entre les militaires advenant une attaque nucléaire (sa structure décentralisé permettant de survivre à la disparition de plusieurs des ordinateurs qui y sont connectés), il a été également largement utilisé entre les universités. Les fonctions hypertextes aussi sont issues de recherches menées dans les années soixante, des souris rudimentaires permettant déjà, en 1968, d'actionner des liens cliquables entre des pages informatiques, concept repris par Apple dans ses premiers ordinateurs Macintosh et qui commençait, à l'époque, à gagner le monde du PC. Le génie de Berners-Lee a donc été d'avoir la vision d'un environnement combinant tous ces éléments, et de paver la voie à la libération de l'information et à l'explosion de la communication dans le monde informatique.
D'autres précurseurs prendront le relais, Marc Andreessen tout d'abord qui inventa le premier véritable navigateur Web populaire, Mosaic, qui deviendra par la suite Netscape. Jusque-là cependant, le potentiel d'Internet et surtout du Web avait été totalement sous-estimé par les grands joueurs de l'industrie, particulièrement de Microsoft. Par exemple, Windows 95 ne comportait aucun navigateur Web à son lancement... La popularité et la croissance de Netscape allait brutalement réveiller notre ami Bill qui allait faire du Web sa priorité à partir de 1995. Sa stratégie agressive allait s'articuler autour d'Internet Explorer, développé à la hâte à la suite du refus d'Andreessen de lui vendre Netscape. Bill devait alors décider de donner IE, notamment en l'intégrant à Windows 98, afin de pousser Netscape à la faillite. Ceci allait donner naissance à une saga judiciaire... « le mal était fait », Netscape vivotait depuis et n'était pas en mesure de bénéficier de cette victoire judiciaire, et devait finalement disparaître peu après, malgré sa vente à un autre grand joueur du temps, America Online (AOL). Ses dirigeants eurent cependant l'idée géniale de céder leur technologie à une fiducie, la fondation Mozilla, qui donna naissance à un important navigateur de code source libre (« Open Source »), Firefox. Ce dernier, dans un juste retour des choses, menant aujourd'hui la vie dure à Internet Explorer.
Rapidement, la masse d'information grandissante consignée sur le Web a rendue essentiels les outils de recherche. Les services comme Lycos ou Altavista connurent alors leur heure de gloire, avant que n'arrive la révolution Google, autre invention de chercheurs isolés propulsés à l'avant-scène et à la fortune par leur création à la croissance exponentielle, Larry Page et Sergey Brin. Les années 2000 devaient bientôt nous emmener le Web 2.0, acronyme symbolisant la prise de contrôle du réseau par les usagers qui font maintenant du réseau un outil interactif dynamique, bâti et réinventé quotidiennement par les internautes, et symbolisé par un autre visionnaire Mark Zuckerberg.
L'histoire du Web est tout à fait fascinante. Sa croissance phénoménale donne lieu à une nouvelle ruée vers l'or où tous les coups sont permis. Mais il est aussi le théâtre de belles histoires, comme celle de Wikipédia, encyclopédie mondiale gratuite et libre en 270 langues à laquelle contribuent environ 100 000 auteurs bénévoles. Le Web aura d'ailleurs alimenté la croissance de nombreux projets informatiques, en matière de logiciel libre notamment. Des concepts comme « Open office », n'auraient certainement pas connu un aussi grand engouement sans bénéficier du Web comme vecteur de croissance. Le retentissement de l'affaire Microsoft ayant également poussé de nombreux pays, particulièrement en Europe, à favoriser le logiciel libre.
Mais le plus grand impact du Web se retrouve sans contredit dans nos sociétés et nos habitudes elles-mêmes. Pensez-vous par exemple que le virage technologique vécu par notre belle profession aurait été aussi rapide et englobant sans l'invention de Berners-Lee? Ce raisonnement s'applique dans tous les domaines, maintenant que le Web est si imbriqué dans notre quotidien que nous en venons à tout bonnement oublier qu'il est là. Commerce électronique, transactions bancaires en ligne, disparition rapide de l'usage du papier, révolution des journaux, convergence médiatique, chaque composante de notre univers en ce début de XXIe siècle a une composante Web en amont ou en aval. Le monde de 1990 connaissait peut-être déjà tous les ingrédients requis pour amener le monde dans ce virage fondamental, certes le plus important depuis la révolution industrielle. Il ne lui en manquait que la recette, qu'allait lui donner Berners-Lee. Et le reste, comme on dit, fait partie de l'histoire.
À la prochaine !
Archive des chroniques "Cybernotes de Bertrand Salvas", telles que publiées dans le magazine "Entracte"
de la Chambre des notaires du Québec et autres contributions en droit des technologies de l'information.
Décembre 2010 >>> "Mon boss est un ci et un ça!"
Pièges et astuces Facebook (2e partie)
« Les choses étant ce caleçon », chaque innovation technologique facilitant l'utilisation des ordinateurs rendent ceux-ci de plus en plus invisibles à nos yeux, et les fait entrer de plus en plus profondément dans notre quotidien et modèle même notre façon de vivre. Vous trouvez que j'exagère ? Eh bien non. Même que la rapidité à laquelle progressent ces changements me surprend régulièrement moi-même...
Il est conseillé à toute entreprise d'établir pour ses employés une politique d'utilisation des ressources informatiques. Établir clairement ce qu'un employé peut ou ne peut pas faire avec le matériel informatique de son employeur, ainsi que comment il peut ou non utiliser son temps de travail, est en effet un bon moyen d'éviter certains malentendus et conflits sur les lieux de travail. Généralement parlant, de telles politiques comprendront des interdictions d'utiliser des outils de clavardage ou de visiter les réseaux sociaux comme Facebook ou autres.
Notre génération a inventé le « cyberslacking » ou cyberflânage, aussi il est logique que nos patrons aient combattu ce phénomène. La nouvelle génération, celle qui est pratiquement née avec le Web, a appris à écrire sur un clavier, à communiquer avec MSN et n'a aucune idée de ce qu'est un téléphone rotatif, une ligne à impulsions ou un téléviseur avec des oreilles de lapin, et n'a que faire de ces interdictions. Pour elle, « tweeter » est aussi naturel que respirer et le fait de réagir sur Facebook n'est aucunement une menace à sa productivité, au contraire ! Sa présence sur les réseaux sociaux ne fait que la rendre plus productive et peut même faire avancer ses affaires et celles de son employeur. Cette génération est celle du « multitasking », du multitâche.
Faut-il s'attendre à un nouveau choc des générations ? Pas du tout mes amis ! Car les patrons de demain émaneront aussi de cette génération et que, qui plus est, les patrons d'aujourd'hui commencent à prendre note de ce nouveau virage apporté par les réseaux sociaux. Ainsi le gouvernement de la Colombie-Britannique vient-il de rendre public sa nouvelle politique gouvernant l'usage des réseaux sociaux par ses employés qui, au lieu de les bannir, leur reconnaît carrément le droit de les utiliser : « Le gouvernement reconnait que les réseaux sociaux sont un nouvel outil en milieu de travail, dont l'usage peut être incorporé dans la journée de travail de ses employés plutôt qu'être interdit ou découragé. Nous avons pleinement confiance en nos employés. »
Un autre indice nous vient des États-Unis, où le National Labor Relations Board (NLRB) vient d'accepter d'étudier une plainte d'une employée congédiée pour avoir parlé contre son employeur sur Facebook (FB). Celle-ci s'était empressée de manifester sur FB son mécontentement face à une décision de son employeur, entraînant une discussion en ligne à ce sujet avec d'autres employés. Pour l'employeur, cette situation contrevenait à l'interdiction de parler de la compagnie sur les réseaux sociaux « de quelque façon que ce soit ». Pour le NLRB, au contraire, le congédiement est abusif. Sans aborder la question de la validité de la politique Internet de l'employeur, la NLRB se fonde sur un article de la loi américaine des relations de travail, et assimile les discussions des employés sur FB au « droit de concertation » que celle-ci leur accorde. Les « protected concerted activities », que l'on pourrait interpréter comme étant une facette de leur droit d'association leur reconnaissant le droit de participer à des activités relatives à leur travail, comprendraient donc le fait de participer à des fils de discussion sur Internet concernant leur employeur. Cet état de fait donne ouverture à la reconnaissance d'un droit d'expression sur le Web 2.0. Vous trouvez toujours que j'exagère?
Astuce : Innovation chez Google
Nous avons souvent eu l'occasion de casser un peu de sucre sur le dos de Google. Il est vrai que sa position dominante sur le Web et les succès spectaculaires que cette entreprise a connus en affaires, notamment sur le marché boursier, lui ont un peu monté à la tête... C'est le propre des entreprises américaines qui se retrouvent en position de quasi-monopole, que l'on pense seulement à Microsoft il y a quelques années. J'imagine que c'est une conséquence de la férocité de la concurrence qui prévaut dans ce domaine. Enfin, bref.
Il faut quand même rendre à César ce qui est à César, et reconnaître que si Google est devenu ce qu'il est, c'est qu'il a carrément révolutionné la recherche sur le Web. Finies les requêtes complexes, le raffinement des recherches et les essais-erreurs avant d'arriver à la page désirée. Avec Google, nous arrivons rapidement à l'information que nous cherchions, et sans trop de chichi. Les autres moteurs de recherche ne font qu'essayer de copier et de se mesurer au moteur-étalon Google. Il ne nous reste plus qu'à visiter les pages qui nous sont présentées, pour voir ce qu'elles contiennent. Mais cette étape aussi est en train de changer... Ah oui ?
Lancer n'importe quelle recherche sur Google. Vous y êtes. Bien. Maintenant regardez à la droite du titre des pages trouvées et vous verrez qu'une petite loupe apparaît maintenant à côté de chacune d'elle. Vous ne la voyez pas ? Répétez alors l'exercice dans quelques temps, car Google implante la nouveauté graduellement selon les serveurs et les régions. Mais vous devriez la voir...
Maintenant, cliquez sur cette loupe. Vous verrez apparaître un panneau à la droite de votre écran, vous présentant la page vers laquelle pointe le lien. Vous pourrez ainsi, sans quitter votre page de recherche, visualiser un aperçu des pages trouvées, ce qui vous permettra d'éliminer certains résultats moins pertinents.
Voilà le genre d'outils qui me fait tant apprécier Google et qui me fait lui pardonner ses incartades et invasions de la vie privée... Un peu comme on pardonne les bévues de gens intelligents et innovateurs.
Et tant qu'à parler des résultats de recherche de Google, je vous rappelle que ces derniers vous fournissent aussi deux autres liens. Le premier, qui n'apparaît pas systématiquement, se nomme « pages similaires » et lancera une nouvelle recherche de pages comportant les mêmes mots clés ou comportant les mêmes caractéristiques afin de préciser votre recherche. L'autre, « en cache », permettra qu'apparaisse la page telle qu'elle se trouvait lors de sa dernière visite par Google. Car Google, bien entendu, conserve une copie intégrale des pages qu'elle visite, donc du Web au complet... Ce lien est pratique pour trouver des informations d'un site temporairement indisponible ou si, comme c'est fréquemment le cas pour les sites de nouvelles, lorsque la page a changé depuis l'indexation de Google. Il faut cependant dire que Google n'archive pas toutes ces pages et qu'elles changeront à sa prochaine visite. La solution est donc temporaire.
À la prochaine !
« Les choses étant ce caleçon », chaque innovation technologique facilitant l'utilisation des ordinateurs rendent ceux-ci de plus en plus invisibles à nos yeux, et les fait entrer de plus en plus profondément dans notre quotidien et modèle même notre façon de vivre. Vous trouvez que j'exagère ? Eh bien non. Même que la rapidité à laquelle progressent ces changements me surprend régulièrement moi-même...
Il est conseillé à toute entreprise d'établir pour ses employés une politique d'utilisation des ressources informatiques. Établir clairement ce qu'un employé peut ou ne peut pas faire avec le matériel informatique de son employeur, ainsi que comment il peut ou non utiliser son temps de travail, est en effet un bon moyen d'éviter certains malentendus et conflits sur les lieux de travail. Généralement parlant, de telles politiques comprendront des interdictions d'utiliser des outils de clavardage ou de visiter les réseaux sociaux comme Facebook ou autres.
Notre génération a inventé le « cyberslacking » ou cyberflânage, aussi il est logique que nos patrons aient combattu ce phénomène. La nouvelle génération, celle qui est pratiquement née avec le Web, a appris à écrire sur un clavier, à communiquer avec MSN et n'a aucune idée de ce qu'est un téléphone rotatif, une ligne à impulsions ou un téléviseur avec des oreilles de lapin, et n'a que faire de ces interdictions. Pour elle, « tweeter » est aussi naturel que respirer et le fait de réagir sur Facebook n'est aucunement une menace à sa productivité, au contraire ! Sa présence sur les réseaux sociaux ne fait que la rendre plus productive et peut même faire avancer ses affaires et celles de son employeur. Cette génération est celle du « multitasking », du multitâche.
Faut-il s'attendre à un nouveau choc des générations ? Pas du tout mes amis ! Car les patrons de demain émaneront aussi de cette génération et que, qui plus est, les patrons d'aujourd'hui commencent à prendre note de ce nouveau virage apporté par les réseaux sociaux. Ainsi le gouvernement de la Colombie-Britannique vient-il de rendre public sa nouvelle politique gouvernant l'usage des réseaux sociaux par ses employés qui, au lieu de les bannir, leur reconnaît carrément le droit de les utiliser : « Le gouvernement reconnait que les réseaux sociaux sont un nouvel outil en milieu de travail, dont l'usage peut être incorporé dans la journée de travail de ses employés plutôt qu'être interdit ou découragé. Nous avons pleinement confiance en nos employés. »
Un autre indice nous vient des États-Unis, où le National Labor Relations Board (NLRB) vient d'accepter d'étudier une plainte d'une employée congédiée pour avoir parlé contre son employeur sur Facebook (FB). Celle-ci s'était empressée de manifester sur FB son mécontentement face à une décision de son employeur, entraînant une discussion en ligne à ce sujet avec d'autres employés. Pour l'employeur, cette situation contrevenait à l'interdiction de parler de la compagnie sur les réseaux sociaux « de quelque façon que ce soit ». Pour le NLRB, au contraire, le congédiement est abusif. Sans aborder la question de la validité de la politique Internet de l'employeur, la NLRB se fonde sur un article de la loi américaine des relations de travail, et assimile les discussions des employés sur FB au « droit de concertation » que celle-ci leur accorde. Les « protected concerted activities », que l'on pourrait interpréter comme étant une facette de leur droit d'association leur reconnaissant le droit de participer à des activités relatives à leur travail, comprendraient donc le fait de participer à des fils de discussion sur Internet concernant leur employeur. Cet état de fait donne ouverture à la reconnaissance d'un droit d'expression sur le Web 2.0. Vous trouvez toujours que j'exagère?
Astuce : Innovation chez Google
Nous avons souvent eu l'occasion de casser un peu de sucre sur le dos de Google. Il est vrai que sa position dominante sur le Web et les succès spectaculaires que cette entreprise a connus en affaires, notamment sur le marché boursier, lui ont un peu monté à la tête... C'est le propre des entreprises américaines qui se retrouvent en position de quasi-monopole, que l'on pense seulement à Microsoft il y a quelques années. J'imagine que c'est une conséquence de la férocité de la concurrence qui prévaut dans ce domaine. Enfin, bref.
Il faut quand même rendre à César ce qui est à César, et reconnaître que si Google est devenu ce qu'il est, c'est qu'il a carrément révolutionné la recherche sur le Web. Finies les requêtes complexes, le raffinement des recherches et les essais-erreurs avant d'arriver à la page désirée. Avec Google, nous arrivons rapidement à l'information que nous cherchions, et sans trop de chichi. Les autres moteurs de recherche ne font qu'essayer de copier et de se mesurer au moteur-étalon Google. Il ne nous reste plus qu'à visiter les pages qui nous sont présentées, pour voir ce qu'elles contiennent. Mais cette étape aussi est en train de changer... Ah oui ?
Lancer n'importe quelle recherche sur Google. Vous y êtes. Bien. Maintenant regardez à la droite du titre des pages trouvées et vous verrez qu'une petite loupe apparaît maintenant à côté de chacune d'elle. Vous ne la voyez pas ? Répétez alors l'exercice dans quelques temps, car Google implante la nouveauté graduellement selon les serveurs et les régions. Mais vous devriez la voir...
Maintenant, cliquez sur cette loupe. Vous verrez apparaître un panneau à la droite de votre écran, vous présentant la page vers laquelle pointe le lien. Vous pourrez ainsi, sans quitter votre page de recherche, visualiser un aperçu des pages trouvées, ce qui vous permettra d'éliminer certains résultats moins pertinents.
Voilà le genre d'outils qui me fait tant apprécier Google et qui me fait lui pardonner ses incartades et invasions de la vie privée... Un peu comme on pardonne les bévues de gens intelligents et innovateurs.
Et tant qu'à parler des résultats de recherche de Google, je vous rappelle que ces derniers vous fournissent aussi deux autres liens. Le premier, qui n'apparaît pas systématiquement, se nomme « pages similaires » et lancera une nouvelle recherche de pages comportant les mêmes mots clés ou comportant les mêmes caractéristiques afin de préciser votre recherche. L'autre, « en cache », permettra qu'apparaisse la page telle qu'elle se trouvait lors de sa dernière visite par Google. Car Google, bien entendu, conserve une copie intégrale des pages qu'elle visite, donc du Web au complet... Ce lien est pratique pour trouver des informations d'un site temporairement indisponible ou si, comme c'est fréquemment le cas pour les sites de nouvelles, lorsque la page a changé depuis l'indexation de Google. Il faut cependant dire que Google n'archive pas toutes ces pages et qu'elles changeront à sa prochaine visite. La solution est donc temporaire.
À la prochaine !
Novembre 2010 >>> "Chéri ! Il a dit Facebook !"
Pièges et astuces autour du Web Facebook (1ère partie)
J'ai dernièrement fait une découverte en fouillant dans de vieilles boîtes. Non, je n'ai pas trouvé de vieilles disquettes d'agendas... Je suis plutôt tombé sur des albums-souvenirs de mes années au secondaire. Ils m'ont rappelé une belle époque de ma vie, quoique assombrie ces derniers temps par les révélations des médias, puisque j'ai étudié au Collège Notre-Dame dans les années 1970... J'ai pu me rendre compte à quel point, contrairement à ce qu'on vit aujourd'hui, il était alors facile pour certaines crapules de donner libre cours à leurs bas instincts sans que personne ne s'en doute. Rien ne nous laissait croire à l'époque, en regardant les photos des coupables dans les albums, qu'ils agressaient et terrorisaient certains de nos condisciples. Ces albums ne nous montraient alors que leur beau profil...
Le virage technologique a, en ce sens, profondément changé la société où nous vivons. Tout le monde ou presque peut aujourd'hui prendre une photo ou une vidéo avec son cellulaire et placer le résultat sur Internet quasi instantanément. L'an dernier, un enseignant du secondaire a ainsi eu la surprise de trouver sur Youtube la crise qu'il avait piquée en classe le matin même ! (Plusieurs écoles ont par la suite interdit les téléphones mobiles en classe.) Mais si les nouvelles technologies facilitent la dénonciation des coupables, elles peuvent également détruire la vie d'innocents, pointés du doigt par erreur ou par malveillance. Il faut croire que c'est le prix à payer pour vivre dans une maison de verre technologique.
Non, la société n'est vraiment plus la même. Et on dirait parfois que la nouvelle génération cherche par tous les moyens à vivre sa vie publiquement et à en semer tous les détails, et parfois les plus intimes, aux quatre vents du Web. Le besoin de vivre son « quinze minutes de gloire » sur le Web l'emporte sur toute espèce de décence. Citons à témoin cette étudiante qui a diffusé une liste détaillée de ses exploits amoureux, avec noms et photos. Loin d'exposer l'auteure à un tollé et à l'opprobre général, ses indiscrétions lui ont plutôt attiré des offres de livres et de films. Le monde est fou...
Mais revenons à nos moutons. Le plus souvent, de telles indiscrétions sont publiées sur les réseaux sociaux, principalement sur Facebook. Ici, ma découverte de la fin de semaine vient me rattraper, car dans le milieu universitaire américain, le mot « facebook » désigne des bottins d'étudiants contenant leurs coordonnées et une photo permettant de les identifier. (Par extension, il est parfois utilisé pour désigner l'album-souvenir ou « yearbook ».) En 2004, le site Facebook a d'ailleurs été conçu à cette fin par un étudiant d'Harvard de 20 ans, Mark Zuckerberg, et trois acolytes. Aujourd'hui, six ans, cinq cent millions de comptes d'usagers et sept milliards de dollars dans son compte personnel plus tard, l'avenir de Marco semble bien assuré...
L'engouement pour Facebook est très important, et les Québécois en sont très friands. Une enquête récente du CEFRIO montre en effet qu'en 2010, « 78 % des internautes québécois ont fréquenté ou contribué au contenu d'au moins un média social » et que leur participation à de tels réseaux a augmenté de 41 % en un an. Pas étonnant que Facebook occupe aujourd'hui le second rang des sites les plus visités sur le Web, juste après Google.
La tempête des réseaux sociaux qui a cours depuis quelques années apporte pourtant son lot d'embûches. Les avertissements, notamment ceux du commissaire à la protection de la vie privée du Canada, sur leur gestion des données personnelles, les risques d'infection par les virus qui y circulent, les arnaques qui y sont menées, n'y changent rien : les gens adorent ces services, s'y inscrivent et y confient leur âme.
« Madame, poussez ! Monsieur, ouvrez un compte Facebook ! »
Indice suprême que ces avertissements tombent à plat : la présence des jeunes sur les réseaux sociaux. Les conditions d'utilisation de Facebook imposent pourtant clairement un âge minimum de 13 ans, mais des statistiques récentes montrent que la réalité est tout autre. La firme AVG a en effet publié une étude montrant que, par exemple, 5 % des bébés occidentaux de moins de deux ans ont leur propre compte Facebook ! En moyenne, les parents ouvriront un tel compte vers l'âge de six mois et les doteront aussi d'une adresse courriel. 80 % de ce groupe de cyber-bébés auront déjà laissé leur empreinte virtuelle sur le Web dès l'âge de sept ans, permettant de retracer déjà quelques pages, photos ou vidéos en tapant leur nom ! En voulez-vous plus ? L'échographie du quart des foetus se retrouve sur le Web avant leur naissance! Avant longtemps, l'album complet de la vie d'un humain se retrouvera en ligne, de l'échographie à la notice nécrologique... Je ne sais pas pour vous, mais j'ai soudainement un frisson dans le dos ...
L'importance des réglages de sécurité pour les usagers de tels sites est donc primordiale, tout comme celle de savoir y faire preuve de discrétion. D'autant plus que, malgré ses mea culpas et les modifications apportées à son site, il appert que Facebook conserve toujours les contenus de ses abonnés après qu'ils les aient volontairement retirés. Certaines photos seraient même restées disponibles en ligne près d'un an et demi après leur retrait. Le fait que Facebook génère autant de profits avec un service gratuit laisse également perplexe.
Bref, nous ne dirons jamais assez à quel point les réseaux sociaux ébranlent le Web et à quel point ces changements sont profonds non seulement pour le réseau, mais pour la société en général. Les présentations étant maintenant faites, dans notre prochaine chronique nous verrons les changements apportés récemment aux politiques et systèmes de Facebook en matière de protection de la vie privée ainsi que les meilleures façons de se protéger dans notre usage de ce service. J'aurai d'ici là vu le film consacré à la construction de Facebook et participé au volet du prochain colloque d'Educaloi portant sur « Les médias sociaux comme moyen d'accès à l'information juridique ». J'aurai donc encore beaucoup de choses à vous dire...
J'ai dernièrement fait une découverte en fouillant dans de vieilles boîtes. Non, je n'ai pas trouvé de vieilles disquettes d'agendas... Je suis plutôt tombé sur des albums-souvenirs de mes années au secondaire. Ils m'ont rappelé une belle époque de ma vie, quoique assombrie ces derniers temps par les révélations des médias, puisque j'ai étudié au Collège Notre-Dame dans les années 1970... J'ai pu me rendre compte à quel point, contrairement à ce qu'on vit aujourd'hui, il était alors facile pour certaines crapules de donner libre cours à leurs bas instincts sans que personne ne s'en doute. Rien ne nous laissait croire à l'époque, en regardant les photos des coupables dans les albums, qu'ils agressaient et terrorisaient certains de nos condisciples. Ces albums ne nous montraient alors que leur beau profil...
Le virage technologique a, en ce sens, profondément changé la société où nous vivons. Tout le monde ou presque peut aujourd'hui prendre une photo ou une vidéo avec son cellulaire et placer le résultat sur Internet quasi instantanément. L'an dernier, un enseignant du secondaire a ainsi eu la surprise de trouver sur Youtube la crise qu'il avait piquée en classe le matin même ! (Plusieurs écoles ont par la suite interdit les téléphones mobiles en classe.) Mais si les nouvelles technologies facilitent la dénonciation des coupables, elles peuvent également détruire la vie d'innocents, pointés du doigt par erreur ou par malveillance. Il faut croire que c'est le prix à payer pour vivre dans une maison de verre technologique.
Non, la société n'est vraiment plus la même. Et on dirait parfois que la nouvelle génération cherche par tous les moyens à vivre sa vie publiquement et à en semer tous les détails, et parfois les plus intimes, aux quatre vents du Web. Le besoin de vivre son « quinze minutes de gloire » sur le Web l'emporte sur toute espèce de décence. Citons à témoin cette étudiante qui a diffusé une liste détaillée de ses exploits amoureux, avec noms et photos. Loin d'exposer l'auteure à un tollé et à l'opprobre général, ses indiscrétions lui ont plutôt attiré des offres de livres et de films. Le monde est fou...
Mais revenons à nos moutons. Le plus souvent, de telles indiscrétions sont publiées sur les réseaux sociaux, principalement sur Facebook. Ici, ma découverte de la fin de semaine vient me rattraper, car dans le milieu universitaire américain, le mot « facebook » désigne des bottins d'étudiants contenant leurs coordonnées et une photo permettant de les identifier. (Par extension, il est parfois utilisé pour désigner l'album-souvenir ou « yearbook ».) En 2004, le site Facebook a d'ailleurs été conçu à cette fin par un étudiant d'Harvard de 20 ans, Mark Zuckerberg, et trois acolytes. Aujourd'hui, six ans, cinq cent millions de comptes d'usagers et sept milliards de dollars dans son compte personnel plus tard, l'avenir de Marco semble bien assuré...
L'engouement pour Facebook est très important, et les Québécois en sont très friands. Une enquête récente du CEFRIO montre en effet qu'en 2010, « 78 % des internautes québécois ont fréquenté ou contribué au contenu d'au moins un média social » et que leur participation à de tels réseaux a augmenté de 41 % en un an. Pas étonnant que Facebook occupe aujourd'hui le second rang des sites les plus visités sur le Web, juste après Google.
La tempête des réseaux sociaux qui a cours depuis quelques années apporte pourtant son lot d'embûches. Les avertissements, notamment ceux du commissaire à la protection de la vie privée du Canada, sur leur gestion des données personnelles, les risques d'infection par les virus qui y circulent, les arnaques qui y sont menées, n'y changent rien : les gens adorent ces services, s'y inscrivent et y confient leur âme.
« Madame, poussez ! Monsieur, ouvrez un compte Facebook ! »
Indice suprême que ces avertissements tombent à plat : la présence des jeunes sur les réseaux sociaux. Les conditions d'utilisation de Facebook imposent pourtant clairement un âge minimum de 13 ans, mais des statistiques récentes montrent que la réalité est tout autre. La firme AVG a en effet publié une étude montrant que, par exemple, 5 % des bébés occidentaux de moins de deux ans ont leur propre compte Facebook ! En moyenne, les parents ouvriront un tel compte vers l'âge de six mois et les doteront aussi d'une adresse courriel. 80 % de ce groupe de cyber-bébés auront déjà laissé leur empreinte virtuelle sur le Web dès l'âge de sept ans, permettant de retracer déjà quelques pages, photos ou vidéos en tapant leur nom ! En voulez-vous plus ? L'échographie du quart des foetus se retrouve sur le Web avant leur naissance! Avant longtemps, l'album complet de la vie d'un humain se retrouvera en ligne, de l'échographie à la notice nécrologique... Je ne sais pas pour vous, mais j'ai soudainement un frisson dans le dos ...
L'importance des réglages de sécurité pour les usagers de tels sites est donc primordiale, tout comme celle de savoir y faire preuve de discrétion. D'autant plus que, malgré ses mea culpas et les modifications apportées à son site, il appert que Facebook conserve toujours les contenus de ses abonnés après qu'ils les aient volontairement retirés. Certaines photos seraient même restées disponibles en ligne près d'un an et demi après leur retrait. Le fait que Facebook génère autant de profits avec un service gratuit laisse également perplexe.
Bref, nous ne dirons jamais assez à quel point les réseaux sociaux ébranlent le Web et à quel point ces changements sont profonds non seulement pour le réseau, mais pour la société en général. Les présentations étant maintenant faites, dans notre prochaine chronique nous verrons les changements apportés récemment aux politiques et systèmes de Facebook en matière de protection de la vie privée ainsi que les meilleures façons de se protéger dans notre usage de ce service. J'aurai d'ici là vu le film consacré à la construction de Facebook et participé au volet du prochain colloque d'Educaloi portant sur « Les médias sociaux comme moyen d'accès à l'information juridique ». J'aurai donc encore beaucoup de choses à vous dire...
Octobre 2010 >>> Mon code est plus fort que le tien !
Les fréquentes visites à l'école de mes héritiers qu'implique la rentrée scolaire me rappellent toutes sortes de souvenirs. Les pagailles dans les corridors, le respect du silence dans les rangs, la course aux casiers dès que la cloche retentit... Tant de choses ont changé depuis l'époque où je tentais moi-même de survivre à mon cours primaire, que j'ai parfois l'impression que mes souvenirs sont en noir et blanc... Mais il est rassurant de constater que même si les élèves font leurs exposés en PowerPoint ou soumettent souvent leurs devoirs par courriel, la bonne vieille atmosphère des écoles n'a pas trop changé.
Et en prime, défiler dans les rangées de casiers protégés à différents degrés m'a enfin donné l'angle que je cherchais pour aborder avec vous de façon, je l'espère, intéressante, un sujet particulièrement aride qui gagne de plus en plus en importance : l'authentification forte. En matière de sécurité informatique, cette notion technique réfère à une procédure d'identification qui impose le respect d'au moins deux éléments ou facteurs d'authentification.
Il fut un temps où la simple utilisation d'un nom d'usager et d'un mot de passe présentait un degré de sécurité suffisant pour transiger sur le Web. Si cette technique est encore largement en usage, il faut se rappeler qu'à l'époque, les utilisations que nous faisions de la toile portaient beaucoup moins à conséquences. Plus la société exige d'être en mesure de poser, en ligne, des gestes de plus en plus importants, plus il faut s'assurer de pouvoir restreindre l'accès aux outils requis aux seules personnes légalement aptes et autorisées à les poser. D'où l'intérêt de resserrer les contrôles. Et comme, d'autre part, les usagers cherchent également toujours plus de facilité d'accès et de transparence, le défi des techniciens est maintenant de doser les interventions pour combiner un degré de sécurité optimum à la meilleure fluidité de navigation possible pour les utilisateurs.
Comme pour les casiers à l'école de mes héritiers, qui peuvent être laissés ouverts ou verrouillés avec des cadenas de qualité très variable, l'authentification de l'usager d'un système informatique peut être plus ou moins solide. Le mot de passe constitue certes un moyen d'identification, mais plutôt faible, d'une part à cause du peu de précautions dont certains usagers font preuve pour en préserver la confidentialité, mais aussi à cause de l'existence de certains logiciels qui cherchent à les intercepter ou à les découvrir. Il faut donc chercher ailleurs.
Dis-moi ce que tu sais et je saurai qui tu es
Un système fondé sur l'authentification forte cherchera quant à lui à combiner des éléments inviolables et non subtilisables pour identifier une personne, par exemple :
Ce que la personne connaît, (un mot de passe, un code NIP, une phrase secrète, etc.)
Ce que la personne détient, comme une carte magnétique, une clé USB, une carte à puce, un téléphone portable ou un élément physique dédié appelé « authentifieur » ou « token ».
Ce que la personne est, ce que l'on appelle également l'identification par élément biométrique (empreinte digitale, empreinte rétinienne, structure de la main, structure osseuse du visage etc.)
Ce que la personne sait faire, (signature manuscrite, reconnaissance de la voix, un type de calcul connu de lui seul, comportement, etc.) ou connait (informations connues de lui seul)
Où la personne est, soit un endroit d'où, à la suite d'une identification et d'une authentification réussies, elle est autorisée (accéder à un système logique d'un endroit prescrit)
L'utilisation d'une signature numérique dans le cadre d'une infrastructure à clés publiques constitue déjà une amélioration face à un simple mot de passe, pourvu que le mot de passe rattaché à la signature soit solide et correctement protégé et ne soit pas dévoilé par son titulaire, volontairement ou non. En montant d'un degré l'escalier des mesures de sécurité, nous rencontrons l'usage du mot de passe à usage unique, qui offre un degré de sécurité encore supérieur. Par exemple, la carte matricielle. Fondé sur le concept du secret partagé, et bien qu'elle ne se qualifie selon les critères de l'authentification forte, la carte matricielle permet d'authentifier un usager sans avoir à maintenir un lourd système de signature numérique. Dans un tel système, l'usager se voit fournir une grille numérique unique qui sera utilisée par le site ou service informatique pour le questionner.
Tirez une carte
On demandera à l'usager de fournir un mot de passe à usage unique qu'il composera à partir des données figurant sur la grille. Par exemple, la bonne réponse à la question A1, E4 et G3 sera 2-8-2. Les bonnes réponses ne pouvant être fournies que par la personne détenant la grille, l'identification de l'usager pourra en être raisonnablement déduite. L'authentification repose donc ici sur un objet que l'usager détient, la grille matricielle.
Un autre exemple d'identification par mot de passe à usage unique concerne l'utilisation de la technologie SMS ou, plus simplement, de la messagerie texte. Ici, un usager demandant d'accéder à un service informatique recevra par messagerie texte un mot de passe lui permettant l'accès pour une seule session. Ce système repose également sur un objet que possède l'usager, son téléphone cellulaire d'un numéro donné et connu d'avance du service informatique.
Certaines technologies plus poussées utilisent un élément technique dédié à l'authentification des communications comme une carte à puce (comme celle qu'utilisent nos collègues français). Cette dernière technologie est un peu limitative puisqu'elle requiert par définition un lecteur à carte. Une autre technique utilise un port standard des ordinateurs, le port USB. Ici, on fournira à l'usager un identificateur, ou « token », ressemblant à une clé à mémoire et qui contiendra sa signature numérique et son certificat. Ces authentificateurs pourront - ou pas - contenir en plus un système pour générer des mots de passe à usage unique.
À la prochaine !
Et en prime, défiler dans les rangées de casiers protégés à différents degrés m'a enfin donné l'angle que je cherchais pour aborder avec vous de façon, je l'espère, intéressante, un sujet particulièrement aride qui gagne de plus en plus en importance : l'authentification forte. En matière de sécurité informatique, cette notion technique réfère à une procédure d'identification qui impose le respect d'au moins deux éléments ou facteurs d'authentification.
Il fut un temps où la simple utilisation d'un nom d'usager et d'un mot de passe présentait un degré de sécurité suffisant pour transiger sur le Web. Si cette technique est encore largement en usage, il faut se rappeler qu'à l'époque, les utilisations que nous faisions de la toile portaient beaucoup moins à conséquences. Plus la société exige d'être en mesure de poser, en ligne, des gestes de plus en plus importants, plus il faut s'assurer de pouvoir restreindre l'accès aux outils requis aux seules personnes légalement aptes et autorisées à les poser. D'où l'intérêt de resserrer les contrôles. Et comme, d'autre part, les usagers cherchent également toujours plus de facilité d'accès et de transparence, le défi des techniciens est maintenant de doser les interventions pour combiner un degré de sécurité optimum à la meilleure fluidité de navigation possible pour les utilisateurs.
Comme pour les casiers à l'école de mes héritiers, qui peuvent être laissés ouverts ou verrouillés avec des cadenas de qualité très variable, l'authentification de l'usager d'un système informatique peut être plus ou moins solide. Le mot de passe constitue certes un moyen d'identification, mais plutôt faible, d'une part à cause du peu de précautions dont certains usagers font preuve pour en préserver la confidentialité, mais aussi à cause de l'existence de certains logiciels qui cherchent à les intercepter ou à les découvrir. Il faut donc chercher ailleurs.
Dis-moi ce que tu sais et je saurai qui tu es
Un système fondé sur l'authentification forte cherchera quant à lui à combiner des éléments inviolables et non subtilisables pour identifier une personne, par exemple :
Ce que la personne connaît, (un mot de passe, un code NIP, une phrase secrète, etc.)
Ce que la personne détient, comme une carte magnétique, une clé USB, une carte à puce, un téléphone portable ou un élément physique dédié appelé « authentifieur » ou « token ».
Ce que la personne est, ce que l'on appelle également l'identification par élément biométrique (empreinte digitale, empreinte rétinienne, structure de la main, structure osseuse du visage etc.)
Ce que la personne sait faire, (signature manuscrite, reconnaissance de la voix, un type de calcul connu de lui seul, comportement, etc.) ou connait (informations connues de lui seul)
Où la personne est, soit un endroit d'où, à la suite d'une identification et d'une authentification réussies, elle est autorisée (accéder à un système logique d'un endroit prescrit)
L'utilisation d'une signature numérique dans le cadre d'une infrastructure à clés publiques constitue déjà une amélioration face à un simple mot de passe, pourvu que le mot de passe rattaché à la signature soit solide et correctement protégé et ne soit pas dévoilé par son titulaire, volontairement ou non. En montant d'un degré l'escalier des mesures de sécurité, nous rencontrons l'usage du mot de passe à usage unique, qui offre un degré de sécurité encore supérieur. Par exemple, la carte matricielle. Fondé sur le concept du secret partagé, et bien qu'elle ne se qualifie selon les critères de l'authentification forte, la carte matricielle permet d'authentifier un usager sans avoir à maintenir un lourd système de signature numérique. Dans un tel système, l'usager se voit fournir une grille numérique unique qui sera utilisée par le site ou service informatique pour le questionner.
Exemple d'une carte matricielle
Tirez une carte
On demandera à l'usager de fournir un mot de passe à usage unique qu'il composera à partir des données figurant sur la grille. Par exemple, la bonne réponse à la question A1, E4 et G3 sera 2-8-2. Les bonnes réponses ne pouvant être fournies que par la personne détenant la grille, l'identification de l'usager pourra en être raisonnablement déduite. L'authentification repose donc ici sur un objet que l'usager détient, la grille matricielle.
Un autre exemple d'identification par mot de passe à usage unique concerne l'utilisation de la technologie SMS ou, plus simplement, de la messagerie texte. Ici, un usager demandant d'accéder à un service informatique recevra par messagerie texte un mot de passe lui permettant l'accès pour une seule session. Ce système repose également sur un objet que possède l'usager, son téléphone cellulaire d'un numéro donné et connu d'avance du service informatique.
Certaines technologies plus poussées utilisent un élément technique dédié à l'authentification des communications comme une carte à puce (comme celle qu'utilisent nos collègues français). Cette dernière technologie est un peu limitative puisqu'elle requiert par définition un lecteur à carte. Une autre technique utilise un port standard des ordinateurs, le port USB. Ici, on fournira à l'usager un identificateur, ou « token », ressemblant à une clé à mémoire et qui contiendra sa signature numérique et son certificat. Ces authentificateurs pourront - ou pas - contenir en plus un système pour générer des mots de passe à usage unique.
À la prochaine !
Septembre 2010 >>> "Bon loi, bad loi"
Quand une belle réforme en droit des affaires nous rappelle de vieux souvenirs...
Au risque d'être le premier à le faire, j'ai décidé ce mois-ci de souligner un anniversaire. Enfin... un anniversaire que nous ne fêterons officiellement que l'an prochain, alors que nous célébrerons dans l'allégresse le dixième anniversaire de l'adoption de la Loi concernant le cadre juridique des technologies de l'information (ci-après « Loi sur le cadre »). Mais il y a dix ans, nous étions déjà invité à examiner les avant-projets qui l'ont précédé et qui, il faut le dire, étaient plutôt tortueux et difficiles d'accès, ce qui n'a rien fait pour faciliter l'accueil du texte final.
Ainsi, mal introduite, la Loi sur le cadre a donc été accueillie dès le départ assez froidement et joui depuis d'un statut un peu spécial dans notre corpus législatif. Longtemps ignorée par la doctrine, tantôt violemment décriée par certains auteurs ou objet de simples survols rapides par d'autres, la Loi sur le cadre reste un peu en marge, comme si sa complexité la rendait si rébarbative qu'auteurs et praticiens tentaient de faire comme si elle n'existait pas...
Cachez cette loi que je ne saurais voir
Bien que cette loi ait apporté des changements importants aux règles du Code civil, elle n'a fait l'objet que d'une vingtaine de décisions de nos tribunaux depuis son adoption. Une seule a été prononcée par la Cour suprême... dont les juges ont d'ailleurs mal compris les dispositions. Mais enfin, là n'est pas l'objet de ma chronique de ce mois-ci, bien que je formule publiquement le souhait de voir apparaître quelques analyses sur l'impact réel de la Loi sur le cadre avant que l'on ne fête son vingtième anniversaire.
En fait, les bons souvenirs que je garde de la Loi sur le cadre m'ont été rappelés par l'arrivée d'une autre loi, la Loi sur les sociétés par actions (ci-après « LSA ») qui, sous peu, remplacera avantageusement notre bonne vieille loi sur les compagnies. Adoptée en décembre dernier, la LSA entrera en vigueur au moment déterminé par le gouvernement, probablement à la fin de 2010 ou au début de 2011. Or le moment d'entrée en vigueur de cette loi dépendra justement de questions technologiques, la LSA poursuivant également le virage mis en place par le gouvernement québécois en ce domaine avec la Loi sur le cadre. Voici comment.
Le but premier de la LSA est de moderniser et d'alléger le fonctionnement interne des sociétés par actions. Elle vise également à stopper la « migration » des gens d'affaires vers la loi fédérale, migration provoquée par la désuétude de la Loi sur les compagnies. Mais permettre aux sociétés québécoises de fonctionner dans un environnement de plus en plus technologique et au registraire des entreprises de tirer profit de la puissance des outils informatiques modernes demeure un objectif capital de la LSA. Un peu comme l'exercice mené au début des années 2000 au registre foncier, la LSA pave la voie au dépôt électronique, modernise le régime de la publicité des entreprises (en conjonction avec la nouvelle Loi sur la publicité légale des entreprises) et facilite l'emploi d'outils technologiques dans la régie interne des sociétés.
Du côté des sociétés
Assemblées d'actionnaires et réunions d'administrateurs pourront se tenir à l'aide de tout moyen permettant à tous les participants de communiquer immédiatement entre eux. La LSA respecte en ce sens l'esprit de neutralité de la Loi sur le cadre, préférant définir les buts qu'une technologie de communication doit atteindre plutôt que d'en désigner certaines de façon spécifique. Dans l'état actuel des choses, pourront alors se qualifier, par exemple, les appels conférences classiques, les vidéoconférences par webcam ou autrement (par « Skype » par exemple). Les actionnaires ou administrateurs qui participeront de cette façon aux activités de la société seront réputés présents à la réunion et pourront également exercer leur droit de vote de cette façon. Une société pourra cependant empêcher ou encadrer de telles pratiques dans ses statuts ou dans son « règlement intérieur » (successeur des règlements généraux sous la LSA).
La LSA règle aussi une problématique issue de la pratique du droit des affaires. En effet, les livres et registres des sociétés sont souvent conservés ailleurs qu'au siège de la société (chez leur notaire par exemple). Sauf disposition contraire, cette pratique sera permise par la loi.
Ainsi, la société qui conservera ses registres ailleurs qu'à son siège devra s'assurer tout d'abord que l'information contenue dans ces livres est accessible sur un support adéquat et qu'elle fournit l'aide technique nécessaire à la consultation de l'information.
En y regardant bien, la LSA régit « l'information » contenue dans ses livres et registres plutôt que simplement ces derniers en distinguant cette « information » de son « support ». Elle emploie donc un langage propre à la Loi sur le cadre qui définit le document comme étant « constitué d'information portée par un support ». De cette manière, la LSA ouvre la porte au livre de minutes électronique et à la tenue des registres des sociétés sur un support autre que le papier, selon les règles générales établies par la Loi sur le cadre.
Dépôt des documents
La LSA va cependant plus loin en permettant le dépôt de documents sur support technologique. Elle présume en effet qu'un tel document sera valable si l' « intermédiaire ou représentant de toute personne tenue de le signer » s'est assuré de l'identité et du consentement du signataire. La porte est donc ouverte au dépôt électronique de tous documents ou rapports sur déclaration, oserons-nous dire « d'attestation », par un intermédiaire ou représentant autorisé. Nous remarquons également l'usage de l'expression « document transmis sur un support faisant appel à la technologie de l'information », propre à la Loi sur le cadre, indiquant la volonté claire du législateur de se rattacher à cette loi pour la gestion et l'interprétation de toute situation liée aux technologies de l'information.
Un tel changement viendra à coup sûr modifier et moderniser la pratique du droit des affaires et confirme encore, si besoin était, le caractère incontournable du virage technologique.
À la prochaine!
Au risque d'être le premier à le faire, j'ai décidé ce mois-ci de souligner un anniversaire. Enfin... un anniversaire que nous ne fêterons officiellement que l'an prochain, alors que nous célébrerons dans l'allégresse le dixième anniversaire de l'adoption de la Loi concernant le cadre juridique des technologies de l'information (ci-après « Loi sur le cadre »). Mais il y a dix ans, nous étions déjà invité à examiner les avant-projets qui l'ont précédé et qui, il faut le dire, étaient plutôt tortueux et difficiles d'accès, ce qui n'a rien fait pour faciliter l'accueil du texte final.
Ainsi, mal introduite, la Loi sur le cadre a donc été accueillie dès le départ assez froidement et joui depuis d'un statut un peu spécial dans notre corpus législatif. Longtemps ignorée par la doctrine, tantôt violemment décriée par certains auteurs ou objet de simples survols rapides par d'autres, la Loi sur le cadre reste un peu en marge, comme si sa complexité la rendait si rébarbative qu'auteurs et praticiens tentaient de faire comme si elle n'existait pas...
Cachez cette loi que je ne saurais voir
Bien que cette loi ait apporté des changements importants aux règles du Code civil, elle n'a fait l'objet que d'une vingtaine de décisions de nos tribunaux depuis son adoption. Une seule a été prononcée par la Cour suprême... dont les juges ont d'ailleurs mal compris les dispositions. Mais enfin, là n'est pas l'objet de ma chronique de ce mois-ci, bien que je formule publiquement le souhait de voir apparaître quelques analyses sur l'impact réel de la Loi sur le cadre avant que l'on ne fête son vingtième anniversaire.
En fait, les bons souvenirs que je garde de la Loi sur le cadre m'ont été rappelés par l'arrivée d'une autre loi, la Loi sur les sociétés par actions (ci-après « LSA ») qui, sous peu, remplacera avantageusement notre bonne vieille loi sur les compagnies. Adoptée en décembre dernier, la LSA entrera en vigueur au moment déterminé par le gouvernement, probablement à la fin de 2010 ou au début de 2011. Or le moment d'entrée en vigueur de cette loi dépendra justement de questions technologiques, la LSA poursuivant également le virage mis en place par le gouvernement québécois en ce domaine avec la Loi sur le cadre. Voici comment.
Le but premier de la LSA est de moderniser et d'alléger le fonctionnement interne des sociétés par actions. Elle vise également à stopper la « migration » des gens d'affaires vers la loi fédérale, migration provoquée par la désuétude de la Loi sur les compagnies. Mais permettre aux sociétés québécoises de fonctionner dans un environnement de plus en plus technologique et au registraire des entreprises de tirer profit de la puissance des outils informatiques modernes demeure un objectif capital de la LSA. Un peu comme l'exercice mené au début des années 2000 au registre foncier, la LSA pave la voie au dépôt électronique, modernise le régime de la publicité des entreprises (en conjonction avec la nouvelle Loi sur la publicité légale des entreprises) et facilite l'emploi d'outils technologiques dans la régie interne des sociétés.
Du côté des sociétés
Assemblées d'actionnaires et réunions d'administrateurs pourront se tenir à l'aide de tout moyen permettant à tous les participants de communiquer immédiatement entre eux. La LSA respecte en ce sens l'esprit de neutralité de la Loi sur le cadre, préférant définir les buts qu'une technologie de communication doit atteindre plutôt que d'en désigner certaines de façon spécifique. Dans l'état actuel des choses, pourront alors se qualifier, par exemple, les appels conférences classiques, les vidéoconférences par webcam ou autrement (par « Skype » par exemple). Les actionnaires ou administrateurs qui participeront de cette façon aux activités de la société seront réputés présents à la réunion et pourront également exercer leur droit de vote de cette façon. Une société pourra cependant empêcher ou encadrer de telles pratiques dans ses statuts ou dans son « règlement intérieur » (successeur des règlements généraux sous la LSA).
La LSA règle aussi une problématique issue de la pratique du droit des affaires. En effet, les livres et registres des sociétés sont souvent conservés ailleurs qu'au siège de la société (chez leur notaire par exemple). Sauf disposition contraire, cette pratique sera permise par la loi.
Ainsi, la société qui conservera ses registres ailleurs qu'à son siège devra s'assurer tout d'abord que l'information contenue dans ces livres est accessible sur un support adéquat et qu'elle fournit l'aide technique nécessaire à la consultation de l'information.
En y regardant bien, la LSA régit « l'information » contenue dans ses livres et registres plutôt que simplement ces derniers en distinguant cette « information » de son « support ». Elle emploie donc un langage propre à la Loi sur le cadre qui définit le document comme étant « constitué d'information portée par un support ». De cette manière, la LSA ouvre la porte au livre de minutes électronique et à la tenue des registres des sociétés sur un support autre que le papier, selon les règles générales établies par la Loi sur le cadre.
Dépôt des documents
La LSA va cependant plus loin en permettant le dépôt de documents sur support technologique. Elle présume en effet qu'un tel document sera valable si l' « intermédiaire ou représentant de toute personne tenue de le signer » s'est assuré de l'identité et du consentement du signataire. La porte est donc ouverte au dépôt électronique de tous documents ou rapports sur déclaration, oserons-nous dire « d'attestation », par un intermédiaire ou représentant autorisé. Nous remarquons également l'usage de l'expression « document transmis sur un support faisant appel à la technologie de l'information », propre à la Loi sur le cadre, indiquant la volonté claire du législateur de se rattacher à cette loi pour la gestion et l'interprétation de toute situation liée aux technologies de l'information.
Un tel changement viendra à coup sûr modifier et moderniser la pratique du droit des affaires et confirme encore, si besoin était, le caractère incontournable du virage technologique.
À la prochaine!
Juin 2010 >>> Retour vers le futur
Où étiez-vous il y a dix ans, et comment pratiquiez-vous ? Regard sur l'évolution technologique du notariat et ses conséquences.
Comme le temps passe... Cette édition marque le dixième anniversaire de la présence des cybernotes dans les pages d'Entracte. Qui l'aurait cru ! Je ne sais pas lequel, des lecteurs ou de l'auteur, aura montré le plus de résistance ou d'endurance mais les faits sont là : le merveilleux monde des technologies de l'information a de quoi occuper et faire parler les gens ! Et si votre humble serviteur se questionnait, à l'époque, sur sa capacité à alimenter une chronique sur les technologies de l'information, force est de constater qu'il a souvent plutôt dû faire des choix déchirants entre les sujets d'intérêt à aborder ! Il faut dire que ces dernières années auront vu survenir de profonds changements, souhaités ou non, dans les habitudes technologiques des notaires du Québec, dont les effets ont provoqué une véritable révolution de notre façon de pratiquer.
En présumant bien entendu que vous y étiez et y êtes toujours, souvenez-vous de votre pratique d'il y a une dizaine d'années. On retrouvait bien quelques ordinateurs et imprimantes dans nos études. Dans bien des cas il pouvait s'agir de modèles d'un certain âge, survivants de l'époque confinés à de simples tâches de traitement de texte. Car à cette époque, rare encore étaient ceux qui les voyaient autrement que comme des dactylos de luxe ! Je me souviens que plusieurs collègues utilisaient encore à cette époque des appareils datant de la fin des années quatre-vingt, fonctionnant sous MS-DOS et Word Perfect 4. Un autre se contentait par ailleurs d'un vieux portable de cette même époque, sans disque dur, et dont le ressort tenant l'écran ouvert avait rendu l'âme le forçant à le tenir ouvert avec une règle...
Certains avant-gardistes, des révolutionnaires, des contestataires même, osaient en avoir plus d'un et poussaient l'audace jusqu'à les mettre en réseau ! Car l'ordinateur était alors un appareil confiné au secrétariat, n'ayant pas encore été admis dans le saint des saints, le bureau du notaire ! Quant aux logiciels de gestion d'étude, bien peu s'en offraient le luxe. Comme nous étions loin des réseaux publics, de la numérisation du registre foncier, de la publication en ligne ! Internet ? De quoi parlez-vous ? Un copain me disait à l'époque qu'il ne s'y connecterait pas tout de suite, qu'il attendait que la mode passe et qu'il y aurait moins de monde par la suite... Notarius était certes déjà dans le portrait, mais peinait toujours à percer la résistance au changement manifestée par plusieurs confrères. À vrai dire, le plus gros débat à l'époque était la fin de la distribution gratuite des mises à jour aux répertoires de droit en version papier... Qui s'en plaindrait aujourd'hui ? Et qui se souvient de certaines pratiques courantes aujourd'hui oubliées, comme commander des étiquettes pré-adressées pour la production des rapports testamentaires sur papier ? Nous en avons fait du chemin, et personne ne voudrait plus se passer de l'Inforoute notariale, de ses services en ligne, ni de sa signature numérique.
Mais le virage technologique négocié par la profession a eu des impacts que le simple renouvellement perpétuel des gadgets et l'arrivée de vagues successives de nouveaux sites ou services offerts par le Web. Loin de se résumer à la réception de nouvelles générations de photocopieurs ou autres outils et à l'apprentissage de leurs fonctions, les changements amenés par la révolution technologique ont modifié nos comportements, notre environnement professionnel, notre façon de pratiquer et notre vision de la pratique. En somme, le notariat n'est plus le même aujourd'hui, en grande partie à la suite de sa décision de plonger à plein dans la révolution informatique. Mais comme rien n'est jamais parfait, il faut aussi constater que ces mutations ont créé autant de problèmes qu'elles en ont réglé.
Le notaire d'aujourd'hui, connecté au monde qui l'entoure comme il l'est sans quitter son fauteuil, se retrouve aussi plus isolé. Finis les rencontres impromptues entre collègues au bureau de la publicité des droits. Finies aussi les discussions et échanges, parfois banals mais souvent enrichissants, qui y avaient cours et à mon avis, la plus grande cohésion de la profession qui en résultait. Le notaire qui souhaite prendre le pouls de ses confrères, même dans sa propre région, doit chercher ou provoquer les occasions pour le faire. Mais le fait-il ? L'accélération du rythme de déroulement des dossiers, autre conséquence du virage informatique, l'en empêche bien souvent. Au moins l'arrivée de stagiaires et la tendance au regroupement des notaires en plus grandes études, poussée par notre ordre professionnel, mais aussi imposée par la nécessité de suivre le tempo et le besoin d'investir dans les outils technologiques, vient-elle briser un peu l'isolement. Tout comme les rencontres obligées aux cours de formation professionnelle, d'ailleurs.
Les notaires d'aujourd'hui me semblent aussi plus ouverts au changement. Pas vraiment le choix, cette qualité leur aura été imposée par la succession de nouveautés qu'ils ont dû assimiler depuis dix ans ! Ceux qui restent et y ont survécu seront donc les plus flexibles, c'est de la pure sélection naturelle. Darwin serait fier de moi ! Mais ces changements successifs sont également porteurs de nouvelles incertitudes : pensons par exemple au dossier de la sauvegarde en ligne où le notaire est invité à protéger ses données en en conservant copie en dehors de son étude, mais où ses choix en la matière peuvent le placer en contravention à sa réglementation professionnelle ou l'exposer à des lois étrangères. Et si la pratique notariale a toujours été fertile en incertitudes, il faut bien admettre que celles posées par le virage technologique sont toujours plus difficiles à cerner ou à contrôler. Quant à notre capacité à les éviter, malgré tous nos efforts et notre bonne foi, elle semble certains jours être aussi incertaine que la couverture de nos assurances responsabilités face à ces nouvelles embûches.
Car en définitive, si nous sommes aujourd'hui plus « productifs », si nous pouvons faire une recherche de titres sur un lot situé à l'autre bout du Québec sans sortir de notre bureau, obtenir en ligne des états de taxes d'à peu près n'importe quelle institution, générer un acte de vente à la seconde, et le publier en moins d'une journée, nous sommes exposés à des problématiques nouvelles qui nous empêchent de profiter de ces avancées technologiques et nous font parfois regretter le bon vieux temps. La volatilité de l'information et la vitesse à laquelle elle circule désormais nous apportent en effet une flopée de problèmes de confidentialité et de sécurité. Par exemple, sauf dans un incendie, il était autrefois difficile d'imaginer perdre ou se faire voler tous ses dossiers et documents d'un coup. Ce qui est non seulement possible, mais facile, en cette époque où la totalité de notre greffe et de nos dossiers peut tenir sur un gadget gros comme un briquet ou être entreposé dans les nuages. Et qui se souciait de la fichue compensation des effets de commerce il y a dix ans ?
Non, il faut bien l'admettre, le praticien d'aujourd'hui est bien seul face à ces problèmes. Mais il faut tout de même admettre que le notariat a bien su tirer profit du virage technologique qui a secoué, et secoue toujours, toute notre société et qu'il est mieux armé pour y faire face. Quant à moi, je repars pour un autre contrat de dix ans en nos pages, si Dieu me prête vie et si vous voulez bien continuer de me lire !
À la prochaine !
Comme le temps passe... Cette édition marque le dixième anniversaire de la présence des cybernotes dans les pages d'Entracte. Qui l'aurait cru ! Je ne sais pas lequel, des lecteurs ou de l'auteur, aura montré le plus de résistance ou d'endurance mais les faits sont là : le merveilleux monde des technologies de l'information a de quoi occuper et faire parler les gens ! Et si votre humble serviteur se questionnait, à l'époque, sur sa capacité à alimenter une chronique sur les technologies de l'information, force est de constater qu'il a souvent plutôt dû faire des choix déchirants entre les sujets d'intérêt à aborder ! Il faut dire que ces dernières années auront vu survenir de profonds changements, souhaités ou non, dans les habitudes technologiques des notaires du Québec, dont les effets ont provoqué une véritable révolution de notre façon de pratiquer.
En présumant bien entendu que vous y étiez et y êtes toujours, souvenez-vous de votre pratique d'il y a une dizaine d'années. On retrouvait bien quelques ordinateurs et imprimantes dans nos études. Dans bien des cas il pouvait s'agir de modèles d'un certain âge, survivants de l'époque confinés à de simples tâches de traitement de texte. Car à cette époque, rare encore étaient ceux qui les voyaient autrement que comme des dactylos de luxe ! Je me souviens que plusieurs collègues utilisaient encore à cette époque des appareils datant de la fin des années quatre-vingt, fonctionnant sous MS-DOS et Word Perfect 4. Un autre se contentait par ailleurs d'un vieux portable de cette même époque, sans disque dur, et dont le ressort tenant l'écran ouvert avait rendu l'âme le forçant à le tenir ouvert avec une règle...
Certains avant-gardistes, des révolutionnaires, des contestataires même, osaient en avoir plus d'un et poussaient l'audace jusqu'à les mettre en réseau ! Car l'ordinateur était alors un appareil confiné au secrétariat, n'ayant pas encore été admis dans le saint des saints, le bureau du notaire ! Quant aux logiciels de gestion d'étude, bien peu s'en offraient le luxe. Comme nous étions loin des réseaux publics, de la numérisation du registre foncier, de la publication en ligne ! Internet ? De quoi parlez-vous ? Un copain me disait à l'époque qu'il ne s'y connecterait pas tout de suite, qu'il attendait que la mode passe et qu'il y aurait moins de monde par la suite... Notarius était certes déjà dans le portrait, mais peinait toujours à percer la résistance au changement manifestée par plusieurs confrères. À vrai dire, le plus gros débat à l'époque était la fin de la distribution gratuite des mises à jour aux répertoires de droit en version papier... Qui s'en plaindrait aujourd'hui ? Et qui se souvient de certaines pratiques courantes aujourd'hui oubliées, comme commander des étiquettes pré-adressées pour la production des rapports testamentaires sur papier ? Nous en avons fait du chemin, et personne ne voudrait plus se passer de l'Inforoute notariale, de ses services en ligne, ni de sa signature numérique.
Mais le virage technologique négocié par la profession a eu des impacts que le simple renouvellement perpétuel des gadgets et l'arrivée de vagues successives de nouveaux sites ou services offerts par le Web. Loin de se résumer à la réception de nouvelles générations de photocopieurs ou autres outils et à l'apprentissage de leurs fonctions, les changements amenés par la révolution technologique ont modifié nos comportements, notre environnement professionnel, notre façon de pratiquer et notre vision de la pratique. En somme, le notariat n'est plus le même aujourd'hui, en grande partie à la suite de sa décision de plonger à plein dans la révolution informatique. Mais comme rien n'est jamais parfait, il faut aussi constater que ces mutations ont créé autant de problèmes qu'elles en ont réglé.
Le notaire d'aujourd'hui, connecté au monde qui l'entoure comme il l'est sans quitter son fauteuil, se retrouve aussi plus isolé. Finis les rencontres impromptues entre collègues au bureau de la publicité des droits. Finies aussi les discussions et échanges, parfois banals mais souvent enrichissants, qui y avaient cours et à mon avis, la plus grande cohésion de la profession qui en résultait. Le notaire qui souhaite prendre le pouls de ses confrères, même dans sa propre région, doit chercher ou provoquer les occasions pour le faire. Mais le fait-il ? L'accélération du rythme de déroulement des dossiers, autre conséquence du virage informatique, l'en empêche bien souvent. Au moins l'arrivée de stagiaires et la tendance au regroupement des notaires en plus grandes études, poussée par notre ordre professionnel, mais aussi imposée par la nécessité de suivre le tempo et le besoin d'investir dans les outils technologiques, vient-elle briser un peu l'isolement. Tout comme les rencontres obligées aux cours de formation professionnelle, d'ailleurs.
Les notaires d'aujourd'hui me semblent aussi plus ouverts au changement. Pas vraiment le choix, cette qualité leur aura été imposée par la succession de nouveautés qu'ils ont dû assimiler depuis dix ans ! Ceux qui restent et y ont survécu seront donc les plus flexibles, c'est de la pure sélection naturelle. Darwin serait fier de moi ! Mais ces changements successifs sont également porteurs de nouvelles incertitudes : pensons par exemple au dossier de la sauvegarde en ligne où le notaire est invité à protéger ses données en en conservant copie en dehors de son étude, mais où ses choix en la matière peuvent le placer en contravention à sa réglementation professionnelle ou l'exposer à des lois étrangères. Et si la pratique notariale a toujours été fertile en incertitudes, il faut bien admettre que celles posées par le virage technologique sont toujours plus difficiles à cerner ou à contrôler. Quant à notre capacité à les éviter, malgré tous nos efforts et notre bonne foi, elle semble certains jours être aussi incertaine que la couverture de nos assurances responsabilités face à ces nouvelles embûches.
Car en définitive, si nous sommes aujourd'hui plus « productifs », si nous pouvons faire une recherche de titres sur un lot situé à l'autre bout du Québec sans sortir de notre bureau, obtenir en ligne des états de taxes d'à peu près n'importe quelle institution, générer un acte de vente à la seconde, et le publier en moins d'une journée, nous sommes exposés à des problématiques nouvelles qui nous empêchent de profiter de ces avancées technologiques et nous font parfois regretter le bon vieux temps. La volatilité de l'information et la vitesse à laquelle elle circule désormais nous apportent en effet une flopée de problèmes de confidentialité et de sécurité. Par exemple, sauf dans un incendie, il était autrefois difficile d'imaginer perdre ou se faire voler tous ses dossiers et documents d'un coup. Ce qui est non seulement possible, mais facile, en cette époque où la totalité de notre greffe et de nos dossiers peut tenir sur un gadget gros comme un briquet ou être entreposé dans les nuages. Et qui se souciait de la fichue compensation des effets de commerce il y a dix ans ?
Non, il faut bien l'admettre, le praticien d'aujourd'hui est bien seul face à ces problèmes. Mais il faut tout de même admettre que le notariat a bien su tirer profit du virage technologique qui a secoué, et secoue toujours, toute notre société et qu'il est mieux armé pour y faire face. Quant à moi, je repars pour un autre contrat de dix ans en nos pages, si Dieu me prête vie et si vous voulez bien continuer de me lire !
À la prochaine !
Avril 2010 >>> Prêt, pas prêt, j'y vais !
Au moment de lancer un nouveau produit, l'industrie informatique est toujours prise entre deux feux. D'un côté, tout le monde sait que, dans n'importe quel domaine, il faut un jour cesser de développer et lancer son produit. Le mieux étant l'ennemi du bien...
En témoigne par exemple l'histoire d'un célèbre jeu vidéo, Duke Nukem 3D. Dès son lancement en 1996, ce jeu provoqua une révolution sur le plan technique et domina rapidement le marché en se vendant à plus de 4 millions d'exemplaires. Les auteurs décident de frapper un autre grand coup en annonçant rapidement l'arrivée prochaine d'une suite, Duke Nukem Forever. Plutôt classique comme cheminement, non ? Sauf que le projet n'aboutit jamais, ses créateurs faisant preuve de trop de perfectionnisme, refusant même d'annoncer une date de lancement. « Le jeu sera lancé quand il sera prêt », clamaient-ils sur leur site. Eh bien en mai 2009, douze ans plus tard, la compagnie annonçait son abandon. À force de reporter le lancement pour intégrer de nouvelles technologies sans cesse dépassées l'intérêt du public s'est perdu et les fonds consacrés au développement, autrefois considérés comme illimités, se sont épuisés.
Mais de l'autre côté, un autre danger guette : lancer un produit imparfait. Quel meilleur moyen en effet de perdre sa clientèle, et de tuer un produit et la compagnie qui le pilote ! Les affaires sont les affaires, mais le client a toujours raison. Et il rejettera rapidement un produit bâclé. Alors comment concilier les deux ? Y a-t-il moyen d'avoir le meilleur des deux mondes ?
C'est ici qu'entre en scène le concept du logiciel de version « Bêta », terme que vous avez certainement déjà entendu. Un logiciel traversant différents stades au cours de son développement que les développeurs ont normalisé afin de s'y retrouver. Par exemple, immédiatement après la production d'un prototype, viendra une version Alpha. Par référence à la première lettre de l'alphabet grec, une version Alpha désigne la première mouture d'un logiciel encore incomplet destiné à une série de tests internes visant à l'améliorer et à finaliser certaines fonctions. Vous ne trouverez normalement donc jamais de version Alpha sur les tablettes...
« ...mais non mon gros bêta, s'il n'en avait pas il ne marcherait pas ! » (comptine connue)
Les plus vieux se souviendront de leur cours classique, en faisant le lien avec la deuxième lettre de l'alphabet grec, Bêta, qui désignera donc le seconde version née de ce processus d'amélioration. Ici encore, il s'agit d'une version test, mais qui pourra circuler dans le public sous ce nom. Installer une version Bêta n'est donc pas dénuée de tout risque car elle peut encore comporter de sérieuses lacunes, ou « bugs ». Car le but de l'opération est justement de tirer profit des installations d'une version Bêta sur de nombreux postes afin de faire ressortir les problèmes, les usagers étant invités à les communiquer au développeur. Viendront ensuite deux version, soit une version dite admissible destinée à déceler tout « bug » de dernière minute, puis la version finale, dite « stable » qui fera l'objet du lancement commercial. Tout ce qui viendra par la suite sera considéré comme des ajouts ou versions corrigées. On peut penser aux fameux « Service packs » de Microsoft qui corrigent des problèmes soulevés lors de la distribution de masse d'un logiciel.
Mais il faut cependant comprendre que ces règles ne sont pas d'application obligatoire et que chaque développeur est libre de gérer ses versions et ses lancements à sa guise. Par exemple, on se souviendra que le pionnier des applications de clavardage, ICQ, a pendant des années distribué ses produits qu'avec la mention « Bêta release », dans un but évident de limiter sa responsabilité. Mais la simple existence de ces catégories peut nous permettre d'être prudents avant d'installer un logiciel. Ainsi, mieux vaut y penser avant de plonger dans un logiciel Bêta, surtout dans un contexte professionnel.
Les développeurs doivent aussi être honnêtes et éviter de lancer des versions dites « stables » trop vite, tout en prenant rapidement en compte les commentaires des usagers et les problèmes qu'ils rencontrent. Il est difficile de comprendre par exemple, et je ne nommerai personne, que la distribution d'une importante mise à jour d'un logiciel de gestion d'étude provoque des problèmes pour tout un bureau, et que le service à la clientèle répondre être au courant car le même problème s'est manifesté chez plusieurs autres de ses clients. La distribution limitée, l'expérimentation d'une version sous étiquette « Bêta » et la correction des problèmes apparus avant la distribution massive d'une version stable aurait permis d'éviter de nombreux problèmes pour les clients, particulièrement dans le cas d'une application aussi capitale pour une étude notariale.
Donnez-moi de vos nouvelles !
Je profite de l'occasion pour vous redire à quel point j'aime recevoir vos commentaires ou suggestions. Depuis dix ans que je rédige cette chronique en ces pages, votre usage des technologies de l'information s'est étendu de façon spectaculaire. Aussi votre expérience pratique ne peut que contribuer à enrichir cet espace et à nous assurer que les sujets qui y sont traités collent à votre quotidien. Vous pouvez donc m'écrire au bsalvas@yahoo.ca pour toute question, commentaire ou suggestion, ou tout simplement pour me dire s'il fait beau chez vous ou pour me dire bonjour. Je ne suis pas gênant.
Un futé collègue m'écrit d'ailleurs ces jours-ci pour me dire qu'il est parvenu à déjouer le système, et à passer à Windows 7 même si le Registre foncier et Entrust ne supportent pas encore ce nouveau système de Microsoft. Ce confrère a utilisé la fonction de compatibilité disponible depuis quelques versions de Windows, afin de faire fonctionner Entrust sous Windows 7. Cette fonction fait en sorte que Windows 7 fonctionnera avec Entrust en faisant semblant d'être une version antérieure, soit XP ou Vista. Windows 7 reste lui-même, mais porte un masque pour confondre les logiciels qui ne lui sont pas encore compatibles.
Bien que cette solution semble avoir fonctionné pour ce confrère, je vous invite néanmoins à la prudence, et à contacter votre informaticien préféré ou Notarius pour vous assurer que des problèmes ne surgiront pas d'une telle configuration. S'il s'agissait de faire fonctionner le vieux jeu vidéo préféré de fiston, je vous dirais de foncer. Mais pour des applications professionnelles aussi importantes, je dois m'avouer un peu plus frileux. Ce doit être l'âge...
À la prochaine !
En témoigne par exemple l'histoire d'un célèbre jeu vidéo, Duke Nukem 3D. Dès son lancement en 1996, ce jeu provoqua une révolution sur le plan technique et domina rapidement le marché en se vendant à plus de 4 millions d'exemplaires. Les auteurs décident de frapper un autre grand coup en annonçant rapidement l'arrivée prochaine d'une suite, Duke Nukem Forever. Plutôt classique comme cheminement, non ? Sauf que le projet n'aboutit jamais, ses créateurs faisant preuve de trop de perfectionnisme, refusant même d'annoncer une date de lancement. « Le jeu sera lancé quand il sera prêt », clamaient-ils sur leur site. Eh bien en mai 2009, douze ans plus tard, la compagnie annonçait son abandon. À force de reporter le lancement pour intégrer de nouvelles technologies sans cesse dépassées l'intérêt du public s'est perdu et les fonds consacrés au développement, autrefois considérés comme illimités, se sont épuisés.
Mais de l'autre côté, un autre danger guette : lancer un produit imparfait. Quel meilleur moyen en effet de perdre sa clientèle, et de tuer un produit et la compagnie qui le pilote ! Les affaires sont les affaires, mais le client a toujours raison. Et il rejettera rapidement un produit bâclé. Alors comment concilier les deux ? Y a-t-il moyen d'avoir le meilleur des deux mondes ?
C'est ici qu'entre en scène le concept du logiciel de version « Bêta », terme que vous avez certainement déjà entendu. Un logiciel traversant différents stades au cours de son développement que les développeurs ont normalisé afin de s'y retrouver. Par exemple, immédiatement après la production d'un prototype, viendra une version Alpha. Par référence à la première lettre de l'alphabet grec, une version Alpha désigne la première mouture d'un logiciel encore incomplet destiné à une série de tests internes visant à l'améliorer et à finaliser certaines fonctions. Vous ne trouverez normalement donc jamais de version Alpha sur les tablettes...
« ...mais non mon gros bêta, s'il n'en avait pas il ne marcherait pas ! » (comptine connue)
Les plus vieux se souviendront de leur cours classique, en faisant le lien avec la deuxième lettre de l'alphabet grec, Bêta, qui désignera donc le seconde version née de ce processus d'amélioration. Ici encore, il s'agit d'une version test, mais qui pourra circuler dans le public sous ce nom. Installer une version Bêta n'est donc pas dénuée de tout risque car elle peut encore comporter de sérieuses lacunes, ou « bugs ». Car le but de l'opération est justement de tirer profit des installations d'une version Bêta sur de nombreux postes afin de faire ressortir les problèmes, les usagers étant invités à les communiquer au développeur. Viendront ensuite deux version, soit une version dite admissible destinée à déceler tout « bug » de dernière minute, puis la version finale, dite « stable » qui fera l'objet du lancement commercial. Tout ce qui viendra par la suite sera considéré comme des ajouts ou versions corrigées. On peut penser aux fameux « Service packs » de Microsoft qui corrigent des problèmes soulevés lors de la distribution de masse d'un logiciel.
Mais il faut cependant comprendre que ces règles ne sont pas d'application obligatoire et que chaque développeur est libre de gérer ses versions et ses lancements à sa guise. Par exemple, on se souviendra que le pionnier des applications de clavardage, ICQ, a pendant des années distribué ses produits qu'avec la mention « Bêta release », dans un but évident de limiter sa responsabilité. Mais la simple existence de ces catégories peut nous permettre d'être prudents avant d'installer un logiciel. Ainsi, mieux vaut y penser avant de plonger dans un logiciel Bêta, surtout dans un contexte professionnel.
Les développeurs doivent aussi être honnêtes et éviter de lancer des versions dites « stables » trop vite, tout en prenant rapidement en compte les commentaires des usagers et les problèmes qu'ils rencontrent. Il est difficile de comprendre par exemple, et je ne nommerai personne, que la distribution d'une importante mise à jour d'un logiciel de gestion d'étude provoque des problèmes pour tout un bureau, et que le service à la clientèle répondre être au courant car le même problème s'est manifesté chez plusieurs autres de ses clients. La distribution limitée, l'expérimentation d'une version sous étiquette « Bêta » et la correction des problèmes apparus avant la distribution massive d'une version stable aurait permis d'éviter de nombreux problèmes pour les clients, particulièrement dans le cas d'une application aussi capitale pour une étude notariale.
Donnez-moi de vos nouvelles !
Je profite de l'occasion pour vous redire à quel point j'aime recevoir vos commentaires ou suggestions. Depuis dix ans que je rédige cette chronique en ces pages, votre usage des technologies de l'information s'est étendu de façon spectaculaire. Aussi votre expérience pratique ne peut que contribuer à enrichir cet espace et à nous assurer que les sujets qui y sont traités collent à votre quotidien. Vous pouvez donc m'écrire au bsalvas@yahoo.ca pour toute question, commentaire ou suggestion, ou tout simplement pour me dire s'il fait beau chez vous ou pour me dire bonjour. Je ne suis pas gênant.
Un futé collègue m'écrit d'ailleurs ces jours-ci pour me dire qu'il est parvenu à déjouer le système, et à passer à Windows 7 même si le Registre foncier et Entrust ne supportent pas encore ce nouveau système de Microsoft. Ce confrère a utilisé la fonction de compatibilité disponible depuis quelques versions de Windows, afin de faire fonctionner Entrust sous Windows 7. Cette fonction fait en sorte que Windows 7 fonctionnera avec Entrust en faisant semblant d'être une version antérieure, soit XP ou Vista. Windows 7 reste lui-même, mais porte un masque pour confondre les logiciels qui ne lui sont pas encore compatibles.
Bien que cette solution semble avoir fonctionné pour ce confrère, je vous invite néanmoins à la prudence, et à contacter votre informaticien préféré ou Notarius pour vous assurer que des problèmes ne surgiront pas d'une telle configuration. S'il s'agissait de faire fonctionner le vieux jeu vidéo préféré de fiston, je vous dirais de foncer. Mais pour des applications professionnelles aussi importantes, je dois m'avouer un peu plus frileux. Ce doit être l'âge...
À la prochaine !
Mars 2010 >>> Qu'advient-il de notre "patrimoine virtuel" à notre décès?
Vous accueillez aujourd'hui dans votre étude un client qui souhaite faire rédiger son testament. Vous lui posez les questions d'usage, vous vous informez sur l'étendue et le type de biens qu'il possède, etc. La routine habituelle, quoi. Mais voici que votre client se met à vous parler de ses « avoirs virtuels ». Il vous demande ce qu'il adviendra, après son décès, de son site Web, de ses archives courriel, des documents qu'il a entreposés sur des serveurs distants, etc. Qu'allez-vous lui répondre ?
Ce client vous pose d'excellentes questions, des questions sur lesquelles je devrais moi-même me pencher sérieusement. Car si notre droit tente le plus possible d'adapter à l'univers informatique des solutions éprouvées, certains aspects des relations qui se tissent sur le Web sont influencés par des contraintes qui leur sont propres. Une chose est certaine toutefois : le sort au décès de ce que nous appellerons ici, pour alléger le texte, le « patrimoine virtuel » d'un individu, est un sujet fascinant qui mérite que l'on s'y attarde.
Au coeur du sujet, une question prend forme : les traces que nous laissons dans l'univers informatique, particulièrement sur le Web, constituent-elles des biens transmissibles en vertu des règles de notre droit civil, ou la volatilité fondamentale qui les caractérise les appelle-t-elle à disparaître en même temps que nous ? De façon accessoire, il faut aussi s'interroger sur l'état pratique des choses ayant cours actuellement sur le Web à cet égard, et sur la possibilité ou non pour un individu de poser des gestes de son vivant, notamment dans un testament, pour influencer le cours des choses au jour de son décès. Nous ne pourrons certainement qu'effleurer ici les grandes lignes de ce vaste programme. Mais tentons tout de même un bref tour du jardin, en guise d'invitation à de plus profondes analyses.
De quoi se compose un patrimoine virtuel ?
Ce que nous appellerons ici un actif virtuel, à défaut de meilleure expression, peut englober divers concepts. Dressons tout d'abord une liste sommaire du type de traces virtuelles qu'un individu peut laisser derrière lui, et que nous pourrions considérer comme faisant partie de son patrimoine virtuel. Nous pourrions par exemple penser tout simplement à un compte courriel ou aux archives de messages et de documents... Ou encore aux documents entreposés sur des serveurs locaux ou distants, surtout depuis que le concept d'« informatique dans les nuages » (cloud computing) gagne en popularité. Qu'en est-il également des signatures numériques ou des sites Web ?
Si le patrimoine virtuel pouvait sembler jusqu'à tout récemment être un concept plutôt flou, la professionnalisation de l'usage des nouvelles technologies que nous vivons présentement aide à le préciser et nous permet de le décortiquer et de le classer en catégories, en utilisant par exemple le but ou l'usage visé des données qui le composent.
Ainsi, nous pourrions établir un classement selon l'usage privé ou professionnel qu'en fait l'internaute, leur caractère permanent (stockage d'archives ou de documents) ou volatile (courriels ou archives de conversations, par exemple), ou encore leur localisation.
1.Usage professionnel
Éliminons d'emblée aux fins du présent article les éléments de patrimoine virtuel à caractère professionnel, par exemple les archives électroniques d'un notaire ou d'un comptable agréé. Dans un premier cas, de toute évidence, ces biens seront affectés par les dispositions des lois et règlements régissant la profession en question ayant trait à la tenue et à la conservation des dossiers. De plus, leur transmission pourrait être régie par un contrat de société ou convention entre actionnaires. De la même façon, un employé peut détenir et utiliser certains actifs virtuels dans le cadre de son emploi. Les archives de courriels, fichiers ou applications détenus sur les serveurs de son employeur sont sous son contrôle, mais, comme les biens physiques utilisés dans le cadre de son emploi, ne font pas partie de son patrimoine. Leur sort au décès de l'individu sera donc régi par les contrats de travail existants, la politique informatique de l'employeur ou les règles propres au droit du travail.
Également, l'homme d'affaires oeuvrant au sein d'une compagnie ou d'une société pourra voir la conservation de ses informations ou données régie par de telles ententes d'association, partenariats, licences, franchises, etc.
Les cas sont trop multiples pour être abordés ici en détail, mais mentionnons que le notaire prudent devrait s'enquérir de l'existence de telles ententes avant de s'aventurer en ce domaine. Nous nous limiterons donc pour l'instant aux éléments d'actifs virtuels détenus par des particuliers.
2.Usage privé
Un individu, dans le cadre de ses activités personnelles, laissera de nombreuses traces de son passage sur le Web. Le traitement de ces actifs virtuels au décès par les différents intervenants qui les détiennent ou en ont la garde variera énormément. Aussi il importera pour le notaire :
°tout d'abord de préciser le plus possible chacun des éléments d'actif afin d'identifier l'organisme en charge ;
°de vérifier les intentions de son client face à chaque élément d'actif, c'est-à-dire s'il souhaite que les données soient détruites, transmises sous le contrôle d'une personne en particulier, ou conservées pendant une période déterminée ou non ;
°vérifier auprès des organismes concernés, avant de rédiger sa ou ses clauses testamentaires, quel traitement sera réservé aux données qu'ils détiennent advenant décès du client et, le cas échéant, de quels détails ou informations ils auront besoin en temps et lieu pour exécuter ses volontés.
Il est en effet primordial de comprendre qu'en cette matière le droit seul ne règle pas toutes les problématiques ; une grande part des règles applicables, sinon toutes dans bien des cas, découle des contrats conclus entre le client et le détenteur des données ou tout simplement des politiques internes de ce dernier. Ainsi, sans prétendre à l'exhaustivité, nous vous présentons quelques exemples montrant les différences dans le traitement au décès de certains actifs virtuels par les acteurs concernés
Adresse et archives courriel
Un compte courriel n'est ni plus ni moins qu'un espace disque sur un serveur dédié à l'échange de messagerie électronique. Le serveur appartenant à un fournisseur de services, il faut s'en remettre à leurs politiques ou au contrat intervenu avec l'utilisateur pour déterminer ce qui se passera avec les données au décès de ce dernier. Nous avons contacté les représentants des deux plus importants fournisseurs d'accès Internet au Québec, Vidéotron et Bell. Il appert que les deux sociétés appliquent la même politique, soit la fermeture des comptes courriel et la destruction automatique de toutes les données qui y sont détenues, sur transmission d'un certificat de décès.
Il en résulte tout d'abord l'inutilité de stipuler quoi que ce soit à cet égard dans le testament d'un client qui souhaiterait voir ces archives transmises à ses héritiers, la seule solution en pareil cas étant pour lui de leur transmettre ses informations de connexion afin qu'ils puissent accéder au contenu avant d'informer le fournisseur d'accès de son décès, en les laissant dans son coffret de sûreté ou en les confiant à son notaire par exemple. Et en n'oubliant pas de le faire à nouveau s'il change son mot de passe. Sinon, mis à part la contestation judiciaire de la politique en vigueur, aucune procédure ne permet le dévoilement des informations de connexion aux héritiers.
Mais l'autre conséquence est au moins de nous permettre de rassurer nos clients sur la suppression de leurs courriels après leur décès, ce type de fichiers étant souvent de nature confidentielle et très personnelle.
Le traitement variera dans le cas des fournisseurs de services de courriel Web. Hotmail supprime ses comptes systématiquement après 270 jours d'inactivité, mais laissera libre accès aux successeurs sur présentation d'un certificat de décès et ne permet d'aucune façon à un usager de bloquer un tel accès post mortem à sa boîte. Gmail pour sa part, laissera aussi accès aux successeurs, mais demandera en plus du certificat de décès, une preuve de discussion entre les successeurs et le défunt démontrant une permission de sa part à cet effet. Une clause au testament pourrait être intéressante à cet égard. Tous les deux, comme Yahoo !, permettent la suppression de la boîte sur demande du successeur. Yahoo ! ne permettant officiellement à ce dernier aucun accès au contenu. Nous avons cependant trouvé sur le Web une citation d'un représentant de Yahoo ! qui mentionne qu'il pourrait en être autrement si le testament du défunt donne spécifiquement une permission à ce sujet.
1.Données entreposées et sites Web
En ce domaine, la palette est plus large et mériterait beaucoup plus d'approfondissement. Un élément clé dont il faut tenir compte à ce sujet réside dans la localisation des fournisseurs de services d'hébergement. Que ce soit pour des données entreposées, des dossiers de travail dans les nuages ou des fichiers composant un site Web, la propriété, le contrôle et les droits d'accès seront largement déterminés par l'entente intervenue et la politique du fournisseur, mais également par le droit applicable. Il est certain que la propriété intellectuelle des documents demeurera celle de leur auteur, mais leur sort au décès comme du vivant de ce dernier variera beaucoup d'un cas à l'autre.
En ce qui concerne les noms de domaine eux-mêmes, ils appartiennent clairement à leur titulaire enregistré. De nombreuses décisions en matière de « cybersquattage » le confirment. Un tel enregistrement est également transférable auprès du registraire concerné. Il serait donc tout à fait possible de léguer, par testament, les droits sur un nom de domaine.
2.Sites de réseautage
Les sites de réseautage comme Facebook, MySpace et autres, sont tellement en vogue qu'on peut presque dire qu'ils sont en train de révolutionner Internet. Les usagers de ces services y stockent de plus en plus d'informations personnelles comme des photos, des vidéos, des fils de conversation, etc. Que se passe-t-il au décès ? Ces informations demeurent-elles accessibles pour l'éternité ? Ont-ils quand même un certain droit à l'oubli ?
La question est assez nouvelle, et la multiplication de ces sites rendra très importante la vérification des conditions entourant l'utilisation de ces sites. Le notaire sera avisé de conseiller à son client de vérifier ces informations auprès de l'opérateur du site en question. À titre d'exemple, MySpace ne dispose d'aucune politique claire en la matière. Il accepterait cependant de supprimer les données à la demande des héritiers. La politique d'utilisation de Twitter reste par ailleurs muette sur le sujet. Quant à Facebook, une fois informée du décès, elle bloquera l'accès classique à l'espace du défunt rendant toute modification impossible. Le profil du défunt deviendra ainsi une sorte de sanctuaire en sa mémoire, géré par les héritiers. Ces derniers pourront également demander sa suppression.
Plus nous avancions dans ce projet d'article, et plus nous étions à même de constater la richesse de ce sujet et l'actualité des questions soulevées. Plus notre société intégrera les nouvelles technologies à sa vie quotidienne, et plus des situations demandant des interventions sur les avoirs virtuels des individus seront requises. L'approfondissement de ces notions devra donc accompagner l'évolution de son importance qui émanera de la pratique. Mais il n'en demeure pas moins que le virage technologique nous offre encore un domaine intéressant à explorer !
Ce client vous pose d'excellentes questions, des questions sur lesquelles je devrais moi-même me pencher sérieusement. Car si notre droit tente le plus possible d'adapter à l'univers informatique des solutions éprouvées, certains aspects des relations qui se tissent sur le Web sont influencés par des contraintes qui leur sont propres. Une chose est certaine toutefois : le sort au décès de ce que nous appellerons ici, pour alléger le texte, le « patrimoine virtuel » d'un individu, est un sujet fascinant qui mérite que l'on s'y attarde.
Au coeur du sujet, une question prend forme : les traces que nous laissons dans l'univers informatique, particulièrement sur le Web, constituent-elles des biens transmissibles en vertu des règles de notre droit civil, ou la volatilité fondamentale qui les caractérise les appelle-t-elle à disparaître en même temps que nous ? De façon accessoire, il faut aussi s'interroger sur l'état pratique des choses ayant cours actuellement sur le Web à cet égard, et sur la possibilité ou non pour un individu de poser des gestes de son vivant, notamment dans un testament, pour influencer le cours des choses au jour de son décès. Nous ne pourrons certainement qu'effleurer ici les grandes lignes de ce vaste programme. Mais tentons tout de même un bref tour du jardin, en guise d'invitation à de plus profondes analyses.
De quoi se compose un patrimoine virtuel ?
Ce que nous appellerons ici un actif virtuel, à défaut de meilleure expression, peut englober divers concepts. Dressons tout d'abord une liste sommaire du type de traces virtuelles qu'un individu peut laisser derrière lui, et que nous pourrions considérer comme faisant partie de son patrimoine virtuel. Nous pourrions par exemple penser tout simplement à un compte courriel ou aux archives de messages et de documents... Ou encore aux documents entreposés sur des serveurs locaux ou distants, surtout depuis que le concept d'« informatique dans les nuages » (cloud computing) gagne en popularité. Qu'en est-il également des signatures numériques ou des sites Web ?
Si le patrimoine virtuel pouvait sembler jusqu'à tout récemment être un concept plutôt flou, la professionnalisation de l'usage des nouvelles technologies que nous vivons présentement aide à le préciser et nous permet de le décortiquer et de le classer en catégories, en utilisant par exemple le but ou l'usage visé des données qui le composent.
Ainsi, nous pourrions établir un classement selon l'usage privé ou professionnel qu'en fait l'internaute, leur caractère permanent (stockage d'archives ou de documents) ou volatile (courriels ou archives de conversations, par exemple), ou encore leur localisation.
1.Usage professionnel
Éliminons d'emblée aux fins du présent article les éléments de patrimoine virtuel à caractère professionnel, par exemple les archives électroniques d'un notaire ou d'un comptable agréé. Dans un premier cas, de toute évidence, ces biens seront affectés par les dispositions des lois et règlements régissant la profession en question ayant trait à la tenue et à la conservation des dossiers. De plus, leur transmission pourrait être régie par un contrat de société ou convention entre actionnaires. De la même façon, un employé peut détenir et utiliser certains actifs virtuels dans le cadre de son emploi. Les archives de courriels, fichiers ou applications détenus sur les serveurs de son employeur sont sous son contrôle, mais, comme les biens physiques utilisés dans le cadre de son emploi, ne font pas partie de son patrimoine. Leur sort au décès de l'individu sera donc régi par les contrats de travail existants, la politique informatique de l'employeur ou les règles propres au droit du travail.
Également, l'homme d'affaires oeuvrant au sein d'une compagnie ou d'une société pourra voir la conservation de ses informations ou données régie par de telles ententes d'association, partenariats, licences, franchises, etc.
Les cas sont trop multiples pour être abordés ici en détail, mais mentionnons que le notaire prudent devrait s'enquérir de l'existence de telles ententes avant de s'aventurer en ce domaine. Nous nous limiterons donc pour l'instant aux éléments d'actifs virtuels détenus par des particuliers.
2.Usage privé
Un individu, dans le cadre de ses activités personnelles, laissera de nombreuses traces de son passage sur le Web. Le traitement de ces actifs virtuels au décès par les différents intervenants qui les détiennent ou en ont la garde variera énormément. Aussi il importera pour le notaire :
°tout d'abord de préciser le plus possible chacun des éléments d'actif afin d'identifier l'organisme en charge ;
°de vérifier les intentions de son client face à chaque élément d'actif, c'est-à-dire s'il souhaite que les données soient détruites, transmises sous le contrôle d'une personne en particulier, ou conservées pendant une période déterminée ou non ;
°vérifier auprès des organismes concernés, avant de rédiger sa ou ses clauses testamentaires, quel traitement sera réservé aux données qu'ils détiennent advenant décès du client et, le cas échéant, de quels détails ou informations ils auront besoin en temps et lieu pour exécuter ses volontés.
Il est en effet primordial de comprendre qu'en cette matière le droit seul ne règle pas toutes les problématiques ; une grande part des règles applicables, sinon toutes dans bien des cas, découle des contrats conclus entre le client et le détenteur des données ou tout simplement des politiques internes de ce dernier. Ainsi, sans prétendre à l'exhaustivité, nous vous présentons quelques exemples montrant les différences dans le traitement au décès de certains actifs virtuels par les acteurs concernés
Adresse et archives courriel
Un compte courriel n'est ni plus ni moins qu'un espace disque sur un serveur dédié à l'échange de messagerie électronique. Le serveur appartenant à un fournisseur de services, il faut s'en remettre à leurs politiques ou au contrat intervenu avec l'utilisateur pour déterminer ce qui se passera avec les données au décès de ce dernier. Nous avons contacté les représentants des deux plus importants fournisseurs d'accès Internet au Québec, Vidéotron et Bell. Il appert que les deux sociétés appliquent la même politique, soit la fermeture des comptes courriel et la destruction automatique de toutes les données qui y sont détenues, sur transmission d'un certificat de décès.
Il en résulte tout d'abord l'inutilité de stipuler quoi que ce soit à cet égard dans le testament d'un client qui souhaiterait voir ces archives transmises à ses héritiers, la seule solution en pareil cas étant pour lui de leur transmettre ses informations de connexion afin qu'ils puissent accéder au contenu avant d'informer le fournisseur d'accès de son décès, en les laissant dans son coffret de sûreté ou en les confiant à son notaire par exemple. Et en n'oubliant pas de le faire à nouveau s'il change son mot de passe. Sinon, mis à part la contestation judiciaire de la politique en vigueur, aucune procédure ne permet le dévoilement des informations de connexion aux héritiers.
Mais l'autre conséquence est au moins de nous permettre de rassurer nos clients sur la suppression de leurs courriels après leur décès, ce type de fichiers étant souvent de nature confidentielle et très personnelle.
Le traitement variera dans le cas des fournisseurs de services de courriel Web. Hotmail supprime ses comptes systématiquement après 270 jours d'inactivité, mais laissera libre accès aux successeurs sur présentation d'un certificat de décès et ne permet d'aucune façon à un usager de bloquer un tel accès post mortem à sa boîte. Gmail pour sa part, laissera aussi accès aux successeurs, mais demandera en plus du certificat de décès, une preuve de discussion entre les successeurs et le défunt démontrant une permission de sa part à cet effet. Une clause au testament pourrait être intéressante à cet égard. Tous les deux, comme Yahoo !, permettent la suppression de la boîte sur demande du successeur. Yahoo ! ne permettant officiellement à ce dernier aucun accès au contenu. Nous avons cependant trouvé sur le Web une citation d'un représentant de Yahoo ! qui mentionne qu'il pourrait en être autrement si le testament du défunt donne spécifiquement une permission à ce sujet.
1.Données entreposées et sites Web
En ce domaine, la palette est plus large et mériterait beaucoup plus d'approfondissement. Un élément clé dont il faut tenir compte à ce sujet réside dans la localisation des fournisseurs de services d'hébergement. Que ce soit pour des données entreposées, des dossiers de travail dans les nuages ou des fichiers composant un site Web, la propriété, le contrôle et les droits d'accès seront largement déterminés par l'entente intervenue et la politique du fournisseur, mais également par le droit applicable. Il est certain que la propriété intellectuelle des documents demeurera celle de leur auteur, mais leur sort au décès comme du vivant de ce dernier variera beaucoup d'un cas à l'autre.
En ce qui concerne les noms de domaine eux-mêmes, ils appartiennent clairement à leur titulaire enregistré. De nombreuses décisions en matière de « cybersquattage » le confirment. Un tel enregistrement est également transférable auprès du registraire concerné. Il serait donc tout à fait possible de léguer, par testament, les droits sur un nom de domaine.
2.Sites de réseautage
Les sites de réseautage comme Facebook, MySpace et autres, sont tellement en vogue qu'on peut presque dire qu'ils sont en train de révolutionner Internet. Les usagers de ces services y stockent de plus en plus d'informations personnelles comme des photos, des vidéos, des fils de conversation, etc. Que se passe-t-il au décès ? Ces informations demeurent-elles accessibles pour l'éternité ? Ont-ils quand même un certain droit à l'oubli ?
La question est assez nouvelle, et la multiplication de ces sites rendra très importante la vérification des conditions entourant l'utilisation de ces sites. Le notaire sera avisé de conseiller à son client de vérifier ces informations auprès de l'opérateur du site en question. À titre d'exemple, MySpace ne dispose d'aucune politique claire en la matière. Il accepterait cependant de supprimer les données à la demande des héritiers. La politique d'utilisation de Twitter reste par ailleurs muette sur le sujet. Quant à Facebook, une fois informée du décès, elle bloquera l'accès classique à l'espace du défunt rendant toute modification impossible. Le profil du défunt deviendra ainsi une sorte de sanctuaire en sa mémoire, géré par les héritiers. Ces derniers pourront également demander sa suppression.
Plus nous avancions dans ce projet d'article, et plus nous étions à même de constater la richesse de ce sujet et l'actualité des questions soulevées. Plus notre société intégrera les nouvelles technologies à sa vie quotidienne, et plus des situations demandant des interventions sur les avoirs virtuels des individus seront requises. L'approfondissement de ces notions devra donc accompagner l'évolution de son importance qui émanera de la pratique. Mais il n'en demeure pas moins que le virage technologique nous offre encore un domaine intéressant à explorer !
Février 2010 >>> Accroc du Web
Combien de temps passez-vous sur Internet chaque semaine? En faites-vous un usage exclusivement professionnel? Y naviguez-vous par plaisir? Êtes-vous capable de vivre hors de votre univers virtuel? Préférez-vous passez quelques heures à l'écran plutôt que d'aller jouer dehors? Vous sentez-vous impatient ou irritable quand vous n'êtes pas en ligne, euphorique quand vous vous y trouvez? Ce portrait correspond-t-il à un de vos proches? Peut-être s'agit-il de cyberdépendance.
Ces symptômes courants de la cyberdépendance peuvent aussi s'accompagner de conséquences physiques comme migraine, maux de dos, syndrome du tunnel carpien, insomnie, etc. Car la cyberdépendance n'est pas un mythe ou une légende urbaine. C'est une maladie dûment identifiée et documentée par la science depuis une quinzaine d'années, qui touche un nombre important d'internautes. En Chine par exemple, on évalue à 13 % le nombre d'internautes affectés d'une telle dépendance, ce qui est assez impressionnant en considérant que 137 millions de Chinois naviguent sur le Web.
Mon premier contact avec cette problématique m'est venu d'un client qui, avant même que le phénomène ne défraie la manchette, en fut presque acculé à la faillite. Travailleur autonome accroché à son écran presque jour et nuit, il délaissa graduellement ses clients et ses affaires et dut même être hospitalisé. Comme vous le voyez, les conséquences de la cyberdépendance peuvent être très graves, comme pour tout type de dépendance. Pas étonnant que plusieurs centres d'aide commencent à s'y intéresser, tendance qui ne devrait que s'amplifier avec la nouvelle réalité du Web 2.0.
Les blogues et les réseaux sociaux comme Myspace, Twitter ou Facebook, accroissent de façon importante l'imbrication du Web dans la vie quotidienne des internautes. S'il était possible de devenir accroc d'un Internet bibliothèque offrant principalement la possibilité de venir y consulter du contenu, la dépendance peut être encore plus grande maintenant que les internautes font littéralement l'Internet d'aujourd'hui. La rapidité avec laquelle l'information circule témoigne de façon éloquente de cette situation. Des exemples récents vus dans l'actualité comme le dévoilement prématuré du décès de personnalités, perçus à juste titre comme une intrusion dans leur vie privée, nous montre à quel point il devient nécessaire pour certains de gagner la course à la primeur. La popularité croissante des téléphones dits « intelligents » et autres gadgets qui permettent de maintenir une connexion constante des individus au Web, ne feront qu'amplifier le problème.
Alors que faire si l'accès au monde virtuel devient une dépendance? Le site Cyberdependance.ca suggère quelques pistes de solution. Tout d'abord, observer et analyser son usage d'Internet en utilisant une fiche d'auto-observation disponible sur ce site, vous permettra de confirmer ou infirmer vos soupçons et de bien diriger vos interventions. S'imposer des habitudes et comportements contraires, et privilégier d'autres activités aux heures habituelles de connexion, utiliser des minuteries ou alarmes pour contrôler la durée de sa présence en ligne font partie de l'arsenal des solutions. Également, rechercher des occasions de socialiser réellement plutôt que de se limiter aux contacts sociaux en ligne pour retrouver le plaisir de rencontrer des gens au-delà de l'écran. Et n'oublions pas que les plus jeunes auront besoin de se faire encadrer en ce sens pour leur éviter la dépendance. La jeune génération étant particulièrement exposée à ce risque, l'Internet faisant partie intégrante de leur univers. Mais le recours à de l'aide psychologique externe peut quand même s'avérer nécessaire dans les pires des cas.
Avoir la tête dans les nuages...
Aimiez-vous rêvasser dans votre jeunesse? Avant notre belle époque technologique, nous avions beaucoup plus d'occasions de nous installer confortablement et de ne rien faire à part nous envoler sur les ailes de nos neurones et de nous imaginer toutes les histoires du monde. Avoir la tête dans les nuages c'était, et c'est toujours, très plaisant et très important pour maintenir un minimum de clarté d'esprit dans le monde fou où nous évoluons. Mais voilà que nous pouvons maintenant envoyer nos fichiers dans les nuages...
C'est du moins ce que prétend Google, qui pousse un peu plus loin son principe de « cloud computing » en offrant à tout le monde un espace disque d'un gigaoctet pour conserver ses fichiers. Imbriqué dans son produit « Google docs », la suite bureautique gratuite qu'elle offre en ligne, le service d'entreposage gratuit de Google pourrait également être augmenté par l'usager moyennant un coût minime de vingt-cinq sous par année pour chaque gigaoctet additionnel.
Les détails de l'entente restent à être confirmés et examinés, mais deux éléments seront intéressants à vérifier. Tout d'abord la confidentialité des données, Google n'étant pas réputée pour être très respectueuse en ce domaine. Plus elle détient d'information pour ses recherches, plus Google fait de profits, alors les conditions entourant le stockage de données sur ses serveurs mériteront d'être examinées car il serait très étonnant qu'elle ait à ce point la tête dans les nuages... Ensuite, la localisation et le contrôle des données est également primordial. Le « Patriot Act » américain permettant aux services de renseignements de l'Oncle Sam d'accéder à toutes données stockées sur son territoire ou sur les serveurs d'entreprises américaines, l'entreposage dans les nuages Google de données confidentielles pourrait poser problème. Alors, pour le moment, la modération a bien meilleur goût!
À la prochaine!
Ces symptômes courants de la cyberdépendance peuvent aussi s'accompagner de conséquences physiques comme migraine, maux de dos, syndrome du tunnel carpien, insomnie, etc. Car la cyberdépendance n'est pas un mythe ou une légende urbaine. C'est une maladie dûment identifiée et documentée par la science depuis une quinzaine d'années, qui touche un nombre important d'internautes. En Chine par exemple, on évalue à 13 % le nombre d'internautes affectés d'une telle dépendance, ce qui est assez impressionnant en considérant que 137 millions de Chinois naviguent sur le Web.
Mon premier contact avec cette problématique m'est venu d'un client qui, avant même que le phénomène ne défraie la manchette, en fut presque acculé à la faillite. Travailleur autonome accroché à son écran presque jour et nuit, il délaissa graduellement ses clients et ses affaires et dut même être hospitalisé. Comme vous le voyez, les conséquences de la cyberdépendance peuvent être très graves, comme pour tout type de dépendance. Pas étonnant que plusieurs centres d'aide commencent à s'y intéresser, tendance qui ne devrait que s'amplifier avec la nouvelle réalité du Web 2.0.
Les blogues et les réseaux sociaux comme Myspace, Twitter ou Facebook, accroissent de façon importante l'imbrication du Web dans la vie quotidienne des internautes. S'il était possible de devenir accroc d'un Internet bibliothèque offrant principalement la possibilité de venir y consulter du contenu, la dépendance peut être encore plus grande maintenant que les internautes font littéralement l'Internet d'aujourd'hui. La rapidité avec laquelle l'information circule témoigne de façon éloquente de cette situation. Des exemples récents vus dans l'actualité comme le dévoilement prématuré du décès de personnalités, perçus à juste titre comme une intrusion dans leur vie privée, nous montre à quel point il devient nécessaire pour certains de gagner la course à la primeur. La popularité croissante des téléphones dits « intelligents » et autres gadgets qui permettent de maintenir une connexion constante des individus au Web, ne feront qu'amplifier le problème.
Alors que faire si l'accès au monde virtuel devient une dépendance? Le site Cyberdependance.ca suggère quelques pistes de solution. Tout d'abord, observer et analyser son usage d'Internet en utilisant une fiche d'auto-observation disponible sur ce site, vous permettra de confirmer ou infirmer vos soupçons et de bien diriger vos interventions. S'imposer des habitudes et comportements contraires, et privilégier d'autres activités aux heures habituelles de connexion, utiliser des minuteries ou alarmes pour contrôler la durée de sa présence en ligne font partie de l'arsenal des solutions. Également, rechercher des occasions de socialiser réellement plutôt que de se limiter aux contacts sociaux en ligne pour retrouver le plaisir de rencontrer des gens au-delà de l'écran. Et n'oublions pas que les plus jeunes auront besoin de se faire encadrer en ce sens pour leur éviter la dépendance. La jeune génération étant particulièrement exposée à ce risque, l'Internet faisant partie intégrante de leur univers. Mais le recours à de l'aide psychologique externe peut quand même s'avérer nécessaire dans les pires des cas.
Avoir la tête dans les nuages...
Aimiez-vous rêvasser dans votre jeunesse? Avant notre belle époque technologique, nous avions beaucoup plus d'occasions de nous installer confortablement et de ne rien faire à part nous envoler sur les ailes de nos neurones et de nous imaginer toutes les histoires du monde. Avoir la tête dans les nuages c'était, et c'est toujours, très plaisant et très important pour maintenir un minimum de clarté d'esprit dans le monde fou où nous évoluons. Mais voilà que nous pouvons maintenant envoyer nos fichiers dans les nuages...
C'est du moins ce que prétend Google, qui pousse un peu plus loin son principe de « cloud computing » en offrant à tout le monde un espace disque d'un gigaoctet pour conserver ses fichiers. Imbriqué dans son produit « Google docs », la suite bureautique gratuite qu'elle offre en ligne, le service d'entreposage gratuit de Google pourrait également être augmenté par l'usager moyennant un coût minime de vingt-cinq sous par année pour chaque gigaoctet additionnel.
Les détails de l'entente restent à être confirmés et examinés, mais deux éléments seront intéressants à vérifier. Tout d'abord la confidentialité des données, Google n'étant pas réputée pour être très respectueuse en ce domaine. Plus elle détient d'information pour ses recherches, plus Google fait de profits, alors les conditions entourant le stockage de données sur ses serveurs mériteront d'être examinées car il serait très étonnant qu'elle ait à ce point la tête dans les nuages... Ensuite, la localisation et le contrôle des données est également primordial. Le « Patriot Act » américain permettant aux services de renseignements de l'Oncle Sam d'accéder à toutes données stockées sur son territoire ou sur les serveurs d'entreprises américaines, l'entreposage dans les nuages Google de données confidentielles pourrait poser problème. Alors, pour le moment, la modération a bien meilleur goût!
À la prochaine!
Novembre 2009 >>> Nous sommes vraiment de petits vites !
Rassurez-vous, je ne vous propose pas un autre article sur Vincent Lacroix ou les autres bandits en cravate du même acabit. Quoiqu'en matière de « petits vites », ils sont plutôt difficiles à battre ! Je n'ai pas non plus l'intention de mettre mon grain de sel au débat en cours sur la vitesse des défenseurs du Canadien. Je ne m'intéresse pas tellement aux sports, sauf pendant les séries éliminatoires, si le Canadien y participe et a une certaine chance d'y faire bonne figure. Vous devinerez que je n'ai pas beaucoup regardé le hockey ces dernières années !
Mais nous dérapons... Non, vous l'aurez plutôt deviné, mon premier sujet du mois porte sur la vitesse. Tout d'abord, d'un point de vue technique, nous ferons le point sur notre usage d'internet. Saviez-vous, par exemple, que le Canada se place au cinquième rang mondial quant au pourcentage des foyers disposant d'un accès Internet haute vitesse ? Soixante-neuf pourcent des foyers canadiens sont ainsi connectés au Web. Et d'ici à 2013, il est projeté que ce pourcentage grimpera à quatre-vingt-un pourcent, plaçant le Canada au troisième rang ! Dans un pareil contexte, nous comprenons mieux les récriminations des habitants de régions éloignées des grands centres qui ne disposent pas de connections rapides. Avec la richesse du contenu multimédia formant le Web d'aujourd'hui, ils doivent en effet trouver le temps plutôt long s'ils ne disposent que de connections lentes. Dans l'état actuel du Web, de telles limites technologiques constituent une barrière pratique au simple accès à Internet. Souhaitons que ce problème soit résolu le plus tôt possible.
L'accès à haute vitesse à Internet deviendra donc de plus en plus une norme mininale, dans les pays industrialisés du moins. Car n'oublions pas les grandes disparités observées entre les pays en matière de développement informatique, et de fossé technologique qui se creuse entre les pays plus et moins développés. Mais en Occident, certains prennent la chose suffisamment au sérieux pour légiférer et stipuler un droit légal de chaque citoyen à disposer d'une connexion à haute vitesse. La Finlande vient de rejoindre à ce chapitre la Suisse et l'Estonie, ajoutant même la gratuité à l'équation. Chaque finlandais disposera donc bientôt d'un accès à Internet haute vitesse gratuit, leur gouvernement souhaite ainsi faciliter les communications avec ses citoyens et renforcer le développement du secteur technologique dans le pays.
« Eh ! Oh ! Pourquoi tu cours comme ça ? »
Donc, la vitesse est à l'honneur en notre 21e siècle. Plus question de patienter pendant que nos textes ou images se composent à l'écran un pixel à la fois. Quant à l'ordinateur super-rapide que vous venez d'acheter aujourd'hui, il vous paraîtra lent comme une tortue demain. Cette culture de la vitesse à tout prix finit par déteindre sur nos activités courantes et par nous faire perdre tous les bénéfices que nous espérions tirer de la révolution technologique. Car au lieu de laisser travailler ses ordinateurs, l'humain cherche à courir à la vitesse de leurs processeurs à double-coeur, alors que lui n'en a malheureusement qu'un seul. Pas étonnant que notre société moderne bouffe ses membres à coups de burn-out ou tente de les engourdir à force d'alcool, de drogues ou d'antidépresseurs.
Nous avons tous, je le crois, une réflexion à faire. Par exemple, pourquoi un notaire devrait-il exposer inutilement sa responsabilité en essayant de débourser les fonds d'une vente à la vitesse de l'éclair, uniquement parce que la publication électronique lui retourne un résultat positif dans les vingt-quatre heures ? Est-ce que la rapidité de notre système de publicité foncière fait disparaître les délais normaux de compensation des chèques et des traites bancaires qui ont servi à financer la transaction ? Pourquoi voudrait-il se transformer en bouclier humain de l'ère technologique en prenant sur lui la sécurité d'un système dont les tenants et aboutissants lui échappent ?
Respirons par le nez, comme disait l'autre. La rapidité des nouveaux outils de communication ne doit pas nous faire perdre de vue l'importance des services que nous sommes appelés à rendre et même, fondamentalement, notre qualité de vie, qui est garante de la tranquillité d'esprit qui ne peut que nous faire travailler mieux. Contrairement à la bonne pratique, la vitesse n'est pas un but en soi.
Facebook, Facebook, Facebook
La vie virtuelle en temps réel que nous connaissons aujourd'hui relève en grande partie de l'importance grandissante sur le Web des réseaux sociaux, Facebook en tête. L'imbrication de ce dernier dans le tissu social soulève quotidiennement toutes sortes d'interrogations et de problématiques nouvelles. Par exemple, saviez-vous qu'une Américaine vient d'être condamnée à un an de pénitencier pour avoir envoyé un « poke » sur Facebook ? Dans la vision de Facebook, envoyer un « poke » équivaut à taper sur l'épaule de quelqu'un dans la vraie vie. Aucun mot n'est échangé, et le geste peut équivaloir à une salutation, à un encouragement, etc. Mais il peut aussi avoir un sens plus menaçant selon les circonstances, par exemple si le gentil tapotement provient d'un créancier impayé ou de l'ex de votre nouvelle flamme...
Sur le site, le destinataire sera simplement informé qu'un autre usager lui a envoyé un poke. Donc qu'il le salue, pense à lui ou a visité sa page, l'intention réelle demeurant généralement comprise que par les personnes impliquées. Or, un tribunal américain vient d'associer le fait d'envoyer un tel signal sur Facebook à du harcèlement et à un bris de conditions. L'expéditrice du « poke » étant, il faut le dire, sous le coup d'un ordre de protection de la cour lui interdisant de communiquer avec la destinataire. Le « je pense à toi » sous-jacent au « poke » en question ayant ici été considéré comme menaçant et défiant les injonctions du tribunal. Le Web est vraiment entré dans les moeurs... Intéressant, non ?
À la prochaine chicane...
Mais nous dérapons... Non, vous l'aurez plutôt deviné, mon premier sujet du mois porte sur la vitesse. Tout d'abord, d'un point de vue technique, nous ferons le point sur notre usage d'internet. Saviez-vous, par exemple, que le Canada se place au cinquième rang mondial quant au pourcentage des foyers disposant d'un accès Internet haute vitesse ? Soixante-neuf pourcent des foyers canadiens sont ainsi connectés au Web. Et d'ici à 2013, il est projeté que ce pourcentage grimpera à quatre-vingt-un pourcent, plaçant le Canada au troisième rang ! Dans un pareil contexte, nous comprenons mieux les récriminations des habitants de régions éloignées des grands centres qui ne disposent pas de connections rapides. Avec la richesse du contenu multimédia formant le Web d'aujourd'hui, ils doivent en effet trouver le temps plutôt long s'ils ne disposent que de connections lentes. Dans l'état actuel du Web, de telles limites technologiques constituent une barrière pratique au simple accès à Internet. Souhaitons que ce problème soit résolu le plus tôt possible.
L'accès à haute vitesse à Internet deviendra donc de plus en plus une norme mininale, dans les pays industrialisés du moins. Car n'oublions pas les grandes disparités observées entre les pays en matière de développement informatique, et de fossé technologique qui se creuse entre les pays plus et moins développés. Mais en Occident, certains prennent la chose suffisamment au sérieux pour légiférer et stipuler un droit légal de chaque citoyen à disposer d'une connexion à haute vitesse. La Finlande vient de rejoindre à ce chapitre la Suisse et l'Estonie, ajoutant même la gratuité à l'équation. Chaque finlandais disposera donc bientôt d'un accès à Internet haute vitesse gratuit, leur gouvernement souhaite ainsi faciliter les communications avec ses citoyens et renforcer le développement du secteur technologique dans le pays.
« Eh ! Oh ! Pourquoi tu cours comme ça ? »
Donc, la vitesse est à l'honneur en notre 21e siècle. Plus question de patienter pendant que nos textes ou images se composent à l'écran un pixel à la fois. Quant à l'ordinateur super-rapide que vous venez d'acheter aujourd'hui, il vous paraîtra lent comme une tortue demain. Cette culture de la vitesse à tout prix finit par déteindre sur nos activités courantes et par nous faire perdre tous les bénéfices que nous espérions tirer de la révolution technologique. Car au lieu de laisser travailler ses ordinateurs, l'humain cherche à courir à la vitesse de leurs processeurs à double-coeur, alors que lui n'en a malheureusement qu'un seul. Pas étonnant que notre société moderne bouffe ses membres à coups de burn-out ou tente de les engourdir à force d'alcool, de drogues ou d'antidépresseurs.
Nous avons tous, je le crois, une réflexion à faire. Par exemple, pourquoi un notaire devrait-il exposer inutilement sa responsabilité en essayant de débourser les fonds d'une vente à la vitesse de l'éclair, uniquement parce que la publication électronique lui retourne un résultat positif dans les vingt-quatre heures ? Est-ce que la rapidité de notre système de publicité foncière fait disparaître les délais normaux de compensation des chèques et des traites bancaires qui ont servi à financer la transaction ? Pourquoi voudrait-il se transformer en bouclier humain de l'ère technologique en prenant sur lui la sécurité d'un système dont les tenants et aboutissants lui échappent ?
Respirons par le nez, comme disait l'autre. La rapidité des nouveaux outils de communication ne doit pas nous faire perdre de vue l'importance des services que nous sommes appelés à rendre et même, fondamentalement, notre qualité de vie, qui est garante de la tranquillité d'esprit qui ne peut que nous faire travailler mieux. Contrairement à la bonne pratique, la vitesse n'est pas un but en soi.
Facebook, Facebook, Facebook
La vie virtuelle en temps réel que nous connaissons aujourd'hui relève en grande partie de l'importance grandissante sur le Web des réseaux sociaux, Facebook en tête. L'imbrication de ce dernier dans le tissu social soulève quotidiennement toutes sortes d'interrogations et de problématiques nouvelles. Par exemple, saviez-vous qu'une Américaine vient d'être condamnée à un an de pénitencier pour avoir envoyé un « poke » sur Facebook ? Dans la vision de Facebook, envoyer un « poke » équivaut à taper sur l'épaule de quelqu'un dans la vraie vie. Aucun mot n'est échangé, et le geste peut équivaloir à une salutation, à un encouragement, etc. Mais il peut aussi avoir un sens plus menaçant selon les circonstances, par exemple si le gentil tapotement provient d'un créancier impayé ou de l'ex de votre nouvelle flamme...
Sur le site, le destinataire sera simplement informé qu'un autre usager lui a envoyé un poke. Donc qu'il le salue, pense à lui ou a visité sa page, l'intention réelle demeurant généralement comprise que par les personnes impliquées. Or, un tribunal américain vient d'associer le fait d'envoyer un tel signal sur Facebook à du harcèlement et à un bris de conditions. L'expéditrice du « poke » étant, il faut le dire, sous le coup d'un ordre de protection de la cour lui interdisant de communiquer avec la destinataire. Le « je pense à toi » sous-jacent au « poke » en question ayant ici été considéré comme menaçant et défiant les injonctions du tribunal. Le Web est vraiment entré dans les moeurs... Intéressant, non ?
À la prochaine chicane...
Septembre 2009 >>> Vous avez dit Web 2.0 ?
À force de frayer dans ce domaine depuis des années, vous devez bien vous douter que j'ai quelques amis informaticiens. L'un d'eux me racontait récemment qu'il surnommait ses enfants « Fiston 1.0 » et « Fiston 2.0 ». Parlez-moi d'un beau cas de déformation professionnelle ! J'en parlais justement l'autre soir à mes deux garçons, « sceau » et « endos », et ils n'en revenaient pas !
Mais blague à part, cette façon de faire des informaticiens quand vient le temps de désigner leurs créations est en train d'entrer dans les moeurs. Un peu comme le chiffre « 101 » qui a quitté le domaine de l'enseignement pour servir à toutes les sauces, la manière qu'ont adoptée les informaticiens pour désigner les versions de leurs logiciels semble promise à un bel avenir dans la société.
C'est un peu ce qui arrive avec ce que l'on appelle le Web 2.0, que l'on entend un peu partout par les temps qui courent. Et comme nous nageons ici encore en plein univers technologique, le terme peut laisser entendre que nous vivrons une nouvelle révolution informatique. Il n'en est pourtant rien, car ce phénomène ne comporte aucune nouvelle mutation technique ou logicielle pour les usagers d'Internet. Bien au contraire, le Web 2.0 fait référence aux changements que les internautes ont eux-mêmes imposés au Web par leur usage renouvelé de sa technologie.
À son origine, la Toile se composait de pages Web codées de façon statique. Un peu comme un document de traitement de texte, l'usager ne pouvait que se contenter d'en lire le contenu. Et les documents produits étaient figés jusqu'à modification par leur auteur, à une adresse donnée du Web. Quant à l'auteur, il devait s'occuper lui-même de mettre à jour le texte mis en ligne, bien souvent de façon manuelle. L'interaction se limitait bien souvent en un simple échange de courriels à l'aide d'adresses publiées sur les pages en question.
C'est qui le patron ici ?
L'évolution de la technologie a permis d'augmenter le degré d'interaction en temps réel entre sites et usagers, puis entre usagers. Depuis quelques années sont donc apparus les blogues, qui permettent à quiconque de partager rapidement et facilement tout contenu qu'il souhaite rendre public, ainsi que les sites de réseautage comme Facebook, MySpace, etc. On pourrait donc dire que maintenant, grâce à ces technologies, les usagers ont pris le contrôle du Web. Et c'est là que se trouve la révolution du Web 2.0. De lecteur passif, l'internaute est devenu éditeur et producteur actif. De plus en plus, les internautes font le Web. Il va sans dire que ce changement de statut implique de nombreuses conséquences juridiques, particulièrement sur le plan de la protection de la vie privée, du droit à l'image ou de la propriété intellectuelle. Pensez à cette dame qui, cet été, a innocemment publié les photos de ses vacances en famille sur Facebook sans réaliser que son mari était le nouveau patron des services secrets de sa Majesté, entraînant la destruction de sa « couverture » et un embarras national important1. James Bond n'avait pas de tels ennuis dans les années 60...
D'autre part, la popularité des applications Web contribue aussi au phénomène. Ainsi, selon Wikipédia, le Web 2.0 implique que le Web constitue maintenant « une plateforme informatique à part entière, fournissant des applications Web qui remplaceront progressivement les applications de bureau traditionnelles ».
Nous avons déjà abordé la question des applications Web sous l'angle de la gestion des licences, qui constituait à l'époque leur principal avantage2. Principalement alors l'apanage d'importantes et dispendieuses suites logicielles commerciales spécialisées, les applications Web (que l'on nommait alors « serveurs d'applications ») permettent à quiconque d'utiliser des logiciels par l'entremise d'un serveur, à l'aide d'un simple navigateur. Le nouveau logiciel de création de formulaires du RDPRM est un excellent exemple de cette façon de faire.
L'application Web prend cependant un nouveau sens dans l'optique Web 2.0, surtout avec la miniaturisation de plus en plus poussée des systèmes informatiques. Il devient maintenant possible d'accéder au Web à partir d'ordinateurs de plus en plus petits, qu'il s'agisse de tablettes Web, de « Netbooks » ou encore de téléphones cellulaires intelligents comme le iPhone, et il est très intéressant de ne pas avoir à gérer l'installation et la présence de multiples et lourdes applications de productivité sur ces poids plume.
Microsoft ? C'est quoi ça ?
En définitive, nous venons de brosser ici la toile de fond de la querelle de titans qui oppose présentement, dans le coin droit, Google, et dans le coin gauche, le tandem improbable Microsoft/Yahoo. La possibilité de présenter aux internautes des solutions complètes de productivité/recherche/communication en ligne devient fondamentale à quiconque voudra contrôler le nouveau Web et les importants revenus publicitaires découlant de la fidélisation de la clientèle Internet.
Ce nouveau contexte Web 2.0 explique ainsi l'importance pour Microsoft de renforcer la position concurrentielle de son moteur de recherche « Bing » en le jumelant à l'important contenu présenté par Yahoo et de rendre prochainement disponible une version en ligne gratuite de sa suite Office3. Dans la même foulée, cette mutation du Web explique pourquoi Google rendait disponible sa propre suite bureautique gratuite en ligne (Google documents), son propre navigateur (Google Chrome) et, prochainement, son propre système d'exploitation (Google Chrome OS) destiné principalement aux Netbooks et autres petits appareils du genre. De cette façon, Google veut s'assurer que quiconque pourra naviguer sur Internet et y trouver réponse à tous ses besoins, sans utiliser un seul logiciel Microsoft ! Qui eut cru une telle chose possible il y a quelques années ?
Voilà donc le pourquoi du comment... Car rien n'arrive innocemment dans le merveilleux monde de la technologie. Vous serez maintenant, je l'espère, mieux à même désormais d'apprécier et de comprendre les coups que se portent les adversaires en cause. D'ici au Web 3.0, bien entendu...
À la prochaine!
1 « British spy chief's cover blown on Facebook », Reuter's, 5 juillet 2009, http://www.reuters.com/article/internetNews/idUSTRE56403820090705
2 Garçon ! L'addition s'il vous plaît ! Entracte, avril 2006, http://www.cybernotes.info/entracte/200604.texto.pdf
3 Microsoft Office to go online - for free , CNN Money, 13 juillet 2009, http://brainstormtech.blogs.fortune.cnn.com/2009/07/13/microsoft-office-to-go-online-for-free/
Mais blague à part, cette façon de faire des informaticiens quand vient le temps de désigner leurs créations est en train d'entrer dans les moeurs. Un peu comme le chiffre « 101 » qui a quitté le domaine de l'enseignement pour servir à toutes les sauces, la manière qu'ont adoptée les informaticiens pour désigner les versions de leurs logiciels semble promise à un bel avenir dans la société.
C'est un peu ce qui arrive avec ce que l'on appelle le Web 2.0, que l'on entend un peu partout par les temps qui courent. Et comme nous nageons ici encore en plein univers technologique, le terme peut laisser entendre que nous vivrons une nouvelle révolution informatique. Il n'en est pourtant rien, car ce phénomène ne comporte aucune nouvelle mutation technique ou logicielle pour les usagers d'Internet. Bien au contraire, le Web 2.0 fait référence aux changements que les internautes ont eux-mêmes imposés au Web par leur usage renouvelé de sa technologie.
À son origine, la Toile se composait de pages Web codées de façon statique. Un peu comme un document de traitement de texte, l'usager ne pouvait que se contenter d'en lire le contenu. Et les documents produits étaient figés jusqu'à modification par leur auteur, à une adresse donnée du Web. Quant à l'auteur, il devait s'occuper lui-même de mettre à jour le texte mis en ligne, bien souvent de façon manuelle. L'interaction se limitait bien souvent en un simple échange de courriels à l'aide d'adresses publiées sur les pages en question.
C'est qui le patron ici ?
L'évolution de la technologie a permis d'augmenter le degré d'interaction en temps réel entre sites et usagers, puis entre usagers. Depuis quelques années sont donc apparus les blogues, qui permettent à quiconque de partager rapidement et facilement tout contenu qu'il souhaite rendre public, ainsi que les sites de réseautage comme Facebook, MySpace, etc. On pourrait donc dire que maintenant, grâce à ces technologies, les usagers ont pris le contrôle du Web. Et c'est là que se trouve la révolution du Web 2.0. De lecteur passif, l'internaute est devenu éditeur et producteur actif. De plus en plus, les internautes font le Web. Il va sans dire que ce changement de statut implique de nombreuses conséquences juridiques, particulièrement sur le plan de la protection de la vie privée, du droit à l'image ou de la propriété intellectuelle. Pensez à cette dame qui, cet été, a innocemment publié les photos de ses vacances en famille sur Facebook sans réaliser que son mari était le nouveau patron des services secrets de sa Majesté, entraînant la destruction de sa « couverture » et un embarras national important1. James Bond n'avait pas de tels ennuis dans les années 60...
D'autre part, la popularité des applications Web contribue aussi au phénomène. Ainsi, selon Wikipédia, le Web 2.0 implique que le Web constitue maintenant « une plateforme informatique à part entière, fournissant des applications Web qui remplaceront progressivement les applications de bureau traditionnelles ».
Nous avons déjà abordé la question des applications Web sous l'angle de la gestion des licences, qui constituait à l'époque leur principal avantage2. Principalement alors l'apanage d'importantes et dispendieuses suites logicielles commerciales spécialisées, les applications Web (que l'on nommait alors « serveurs d'applications ») permettent à quiconque d'utiliser des logiciels par l'entremise d'un serveur, à l'aide d'un simple navigateur. Le nouveau logiciel de création de formulaires du RDPRM est un excellent exemple de cette façon de faire.
L'application Web prend cependant un nouveau sens dans l'optique Web 2.0, surtout avec la miniaturisation de plus en plus poussée des systèmes informatiques. Il devient maintenant possible d'accéder au Web à partir d'ordinateurs de plus en plus petits, qu'il s'agisse de tablettes Web, de « Netbooks » ou encore de téléphones cellulaires intelligents comme le iPhone, et il est très intéressant de ne pas avoir à gérer l'installation et la présence de multiples et lourdes applications de productivité sur ces poids plume.
Microsoft ? C'est quoi ça ?
En définitive, nous venons de brosser ici la toile de fond de la querelle de titans qui oppose présentement, dans le coin droit, Google, et dans le coin gauche, le tandem improbable Microsoft/Yahoo. La possibilité de présenter aux internautes des solutions complètes de productivité/recherche/communication en ligne devient fondamentale à quiconque voudra contrôler le nouveau Web et les importants revenus publicitaires découlant de la fidélisation de la clientèle Internet.
Ce nouveau contexte Web 2.0 explique ainsi l'importance pour Microsoft de renforcer la position concurrentielle de son moteur de recherche « Bing » en le jumelant à l'important contenu présenté par Yahoo et de rendre prochainement disponible une version en ligne gratuite de sa suite Office3. Dans la même foulée, cette mutation du Web explique pourquoi Google rendait disponible sa propre suite bureautique gratuite en ligne (Google documents), son propre navigateur (Google Chrome) et, prochainement, son propre système d'exploitation (Google Chrome OS) destiné principalement aux Netbooks et autres petits appareils du genre. De cette façon, Google veut s'assurer que quiconque pourra naviguer sur Internet et y trouver réponse à tous ses besoins, sans utiliser un seul logiciel Microsoft ! Qui eut cru une telle chose possible il y a quelques années ?
Voilà donc le pourquoi du comment... Car rien n'arrive innocemment dans le merveilleux monde de la technologie. Vous serez maintenant, je l'espère, mieux à même désormais d'apprécier et de comprendre les coups que se portent les adversaires en cause. D'ici au Web 3.0, bien entendu...
À la prochaine!
1 « British spy chief's cover blown on Facebook », Reuter's, 5 juillet 2009, http://www.reuters.com/article/internetNews/idUSTRE56403820090705
2 Garçon ! L'addition s'il vous plaît ! Entracte, avril 2006, http://www.cybernotes.info/entracte/200604.texto.pdf
3 Microsoft Office to go online - for free , CNN Money, 13 juillet 2009, http://brainstormtech.blogs.fortune.cnn.com/2009/07/13/microsoft-office-to-go-online-for-free/
Juillet 2009 >>> Faux antivirus, vrai problème
Dans la vie, il est souvent difficile de démêler le vrai du faux, surtout à une époque aussi folle que la nôtre où tout est fondé sur l'image et, trop souvent, la dissimulation. Le Web y est-il pour quelque chose ? À force d'y naviguer, d'y faire affaires, d'y rencontrer des gens et de transiger avec eux sans jamais voir un être humain en face, nous habituons-nous à jouer un jeu, à nous méfier et à nous développer une personnalité différente de nous-mêmes ? Devenons-nous des avatars à plein temps et habituons-nous nos enfants, dès leur plus jeune âge, à jouer un rôle à travers des sites de jeu virtuel développés pour eux ?
Il y aurait certainement un beau débat philosophique à faire là-dessus mais rassurez-vous, je ne suis pas philosophe. Surtout pas à ce temps-ci de l'année, entre deux ventes de bungalow ! Mais il n'en demeure pas moins que de distinguer le vrai du faux sur le Web est une entreprise hasardeuse. Il serait même probablement plus facile de survivre à trois mois d'apnée cérébrale dans un loft télédiffusé que de chercher à démêler l'écheveau de mensonges qui se tisse quotidiennement sur Internet, où l'offre la plus anodine peut s'avérer être un piège à con.
Rappelons-nous par exemple de l'époque où les virus ou autres codes malveillants se retrouvaient sur les seuls sites des pirates informatiques. Une simple visite sur un de ces sites pouvait remplir votre ordinateur de suffisamment de virus pour tenir un technicien occupé pendant un sérieux bout de temps1. Visiter certains groupes de nouvelles ou de discussion aurait aussi alors résulté en un résultat assez semblable. Mais au moins, à cette époque, on pouvait prévoir avec relativement de précision où les menaces se retrouvaient et comment éviter ces parties du réseau.
C'était le bon vieux temps. Aujourd'hui, les pirates sont plus inventifs et cherchent plutôt à insérer du code malveillant sur des sites légitimes, à l'insu de leurs opérateurs. Branchez-vous nous apprenait récemment que plus de vingt mille sites avaient été infectés de cette façon, les bidouilleurs profitant de failles de sécurité des serveurs concernés pour y loger des logiciels espions ou autre nuisances qui s'en prendront aux visiteurs de ces sites2. Les sites ciblés traiteront généralement de sujets à la mode, histoire de maximiser l'effet de l'intrusion. L'éditeur de logiciel anti-virus McAfee publie d'ailleurs de temps à autre les termes de recherche les plus susceptibles de vous faire atterrir sur un site infecté. En tête de liste on retrouve « screensaver », « free games », « twilight » et « Barack Obama »3... À ce chapitre, sachez que certains anti-virus, comme AVG par exemple, ajouteront systématiquement à vos résultats de recherche Google un icône vous indiquant si les sites retracés comportent ou non un risque de sécurité, ce qui peut vous éviter des désagréments.
Je te rends malade pour te vendre des pilules
Mais quel genre de problèmes peut-on rencontrer sur un site infecté de la sorte ? La nouvelle mode est le faux anti-virus. Véritable prise d'otage d'ordinateur, cette pratique débute par l'infection du système de la victime avec un virus ou un espiogiciel. La bestiole détournera habituellement le navigateur Internet de sa victime, changeant sa page d'accueil et ouvrant de multiples fenêtres publicitaires rendant la navigation pénible, voire impossible. L'étape suivante consistera à présenter à l'utilisateur une fenêtre mentionnant qu'un virus a été détecté dans l'appareil, souvent à l'aide d'une fenêtre imitant l'allure des fenêtres du système Windows, et lui offrant une solution. S'il clique pour accepter, l'arnaqué imprudent sera amené sur le site d'un faux logiciel anti-virus présenté comme la seule solution pour retirer la menace détectée et mettre fin à ses misères. Évidemment, l'argent déboursé pour l'achat de ce logiciel ira dans les poches du malfrat, et la désinfection du système n'aura pas nécessairement lieu. Quant au sort du numéro de carte de crédit obtenu par ce stratagème, je vous laisse le deviner...
Alors que faire en pareil cas ? Surtout, ne pas céder à la tentation d'acheter le logiciel proposé. Car vous aurez évidemment compris qu'il s'agit d'une arnaque. Mieux vaut vous équiper d'un logiciel reconnu de détection et d'élimination d'espiogiciels, comme Adaware, SpyBot, etc. Votre anti-virus régulier pourrait aussi vous aider, tout dépendant du type d'infection dont votre machine souffre. Mais ne vous découragez pas, le travail peut être long et nécessiter l'usage de plus d'un logiciel de désinfection. N'oubliez pas que patience et longueur de temps valent mieux que force et rage... Alors quand vous n'en pourrez plus, que vous en serez à votre vingtième redémarrage et que vous aurez le goût de débrancher l'animal et de le tirer par la fenêtre en lançant un grand cri, rappelez-vous que vous pouvez toujours faire appel à votre technicien favori...
Exit le papier ?
Nos forêts doivent pousser de grands soupirs de soulagement en voyant se développer de plus en plus les technologies capables de remplacer le papier dans nos usages quotidiens. Loin de croire que ce remplacement pourrait être intégral, il n'en demeure pas moins que de grandes économies de papier pourraient découler de l'essor récent du livre électronique.
Longtemps handicapés par les capacités de leurs écrans à offrir aux utilisateurs une lecture confortable, ces appareils offrent maintenant une technologie mieux adaptée à l'oeil humain tout en ajoutant des fonctions que le papier ne peut offrir, comme la recherche en plein texte. La vente d'appareils comme le « Sony Reader », ou le « Kindle » d'Amazon capables de stocker des livres entiers ou vos périodiques préférés, est en plein essor, entraînant le développement d'une toute nouvelle industrie. Google s'apprête par exemple à rendre disponible plus d'un demi-million de bouquins pour téléchargement vers de tels appareils, suivant ainsi Amazon.com. Du côté francophone aussi l'intérêt se développe, par exemple chez Archambault qui vendra dès cet été un millier de titres francophones en format électronique.
On ne peut qu'imaginer l'impact d'une telle technologie dans le domaine de l'information, le téléchargement de votre journal quotidien venant réduire dramatiquement la consommation de papier et les coûts d'impression.
Mais pour plusieurs, rien ne remplacera la lecture d'un bon vieux bouquin, dans un hamac, par un beau dimanche après-midi...
À la prochaine !
____________________
1Et c'est probablement encore le cas...
2http://techno.branchez-vous.com/actualite/2009/06/20_000_sites_pirates_pour_infe.html
3« The Web's most dangerous keywords to search for » ZDNet, 27 mai 2009, http://blogs.zdnet.com/security/?p=3457&tag=nl.e540.
Il y aurait certainement un beau débat philosophique à faire là-dessus mais rassurez-vous, je ne suis pas philosophe. Surtout pas à ce temps-ci de l'année, entre deux ventes de bungalow ! Mais il n'en demeure pas moins que de distinguer le vrai du faux sur le Web est une entreprise hasardeuse. Il serait même probablement plus facile de survivre à trois mois d'apnée cérébrale dans un loft télédiffusé que de chercher à démêler l'écheveau de mensonges qui se tisse quotidiennement sur Internet, où l'offre la plus anodine peut s'avérer être un piège à con.
Rappelons-nous par exemple de l'époque où les virus ou autres codes malveillants se retrouvaient sur les seuls sites des pirates informatiques. Une simple visite sur un de ces sites pouvait remplir votre ordinateur de suffisamment de virus pour tenir un technicien occupé pendant un sérieux bout de temps1. Visiter certains groupes de nouvelles ou de discussion aurait aussi alors résulté en un résultat assez semblable. Mais au moins, à cette époque, on pouvait prévoir avec relativement de précision où les menaces se retrouvaient et comment éviter ces parties du réseau.
C'était le bon vieux temps. Aujourd'hui, les pirates sont plus inventifs et cherchent plutôt à insérer du code malveillant sur des sites légitimes, à l'insu de leurs opérateurs. Branchez-vous nous apprenait récemment que plus de vingt mille sites avaient été infectés de cette façon, les bidouilleurs profitant de failles de sécurité des serveurs concernés pour y loger des logiciels espions ou autre nuisances qui s'en prendront aux visiteurs de ces sites2. Les sites ciblés traiteront généralement de sujets à la mode, histoire de maximiser l'effet de l'intrusion. L'éditeur de logiciel anti-virus McAfee publie d'ailleurs de temps à autre les termes de recherche les plus susceptibles de vous faire atterrir sur un site infecté. En tête de liste on retrouve « screensaver », « free games », « twilight » et « Barack Obama »3... À ce chapitre, sachez que certains anti-virus, comme AVG par exemple, ajouteront systématiquement à vos résultats de recherche Google un icône vous indiquant si les sites retracés comportent ou non un risque de sécurité, ce qui peut vous éviter des désagréments.
Je te rends malade pour te vendre des pilules
Mais quel genre de problèmes peut-on rencontrer sur un site infecté de la sorte ? La nouvelle mode est le faux anti-virus. Véritable prise d'otage d'ordinateur, cette pratique débute par l'infection du système de la victime avec un virus ou un espiogiciel. La bestiole détournera habituellement le navigateur Internet de sa victime, changeant sa page d'accueil et ouvrant de multiples fenêtres publicitaires rendant la navigation pénible, voire impossible. L'étape suivante consistera à présenter à l'utilisateur une fenêtre mentionnant qu'un virus a été détecté dans l'appareil, souvent à l'aide d'une fenêtre imitant l'allure des fenêtres du système Windows, et lui offrant une solution. S'il clique pour accepter, l'arnaqué imprudent sera amené sur le site d'un faux logiciel anti-virus présenté comme la seule solution pour retirer la menace détectée et mettre fin à ses misères. Évidemment, l'argent déboursé pour l'achat de ce logiciel ira dans les poches du malfrat, et la désinfection du système n'aura pas nécessairement lieu. Quant au sort du numéro de carte de crédit obtenu par ce stratagème, je vous laisse le deviner...
Alors que faire en pareil cas ? Surtout, ne pas céder à la tentation d'acheter le logiciel proposé. Car vous aurez évidemment compris qu'il s'agit d'une arnaque. Mieux vaut vous équiper d'un logiciel reconnu de détection et d'élimination d'espiogiciels, comme Adaware, SpyBot, etc. Votre anti-virus régulier pourrait aussi vous aider, tout dépendant du type d'infection dont votre machine souffre. Mais ne vous découragez pas, le travail peut être long et nécessiter l'usage de plus d'un logiciel de désinfection. N'oubliez pas que patience et longueur de temps valent mieux que force et rage... Alors quand vous n'en pourrez plus, que vous en serez à votre vingtième redémarrage et que vous aurez le goût de débrancher l'animal et de le tirer par la fenêtre en lançant un grand cri, rappelez-vous que vous pouvez toujours faire appel à votre technicien favori...
Exit le papier ?
Nos forêts doivent pousser de grands soupirs de soulagement en voyant se développer de plus en plus les technologies capables de remplacer le papier dans nos usages quotidiens. Loin de croire que ce remplacement pourrait être intégral, il n'en demeure pas moins que de grandes économies de papier pourraient découler de l'essor récent du livre électronique.
Longtemps handicapés par les capacités de leurs écrans à offrir aux utilisateurs une lecture confortable, ces appareils offrent maintenant une technologie mieux adaptée à l'oeil humain tout en ajoutant des fonctions que le papier ne peut offrir, comme la recherche en plein texte. La vente d'appareils comme le « Sony Reader », ou le « Kindle » d'Amazon capables de stocker des livres entiers ou vos périodiques préférés, est en plein essor, entraînant le développement d'une toute nouvelle industrie. Google s'apprête par exemple à rendre disponible plus d'un demi-million de bouquins pour téléchargement vers de tels appareils, suivant ainsi Amazon.com. Du côté francophone aussi l'intérêt se développe, par exemple chez Archambault qui vendra dès cet été un millier de titres francophones en format électronique.
On ne peut qu'imaginer l'impact d'une telle technologie dans le domaine de l'information, le téléchargement de votre journal quotidien venant réduire dramatiquement la consommation de papier et les coûts d'impression.
Mais pour plusieurs, rien ne remplacera la lecture d'un bon vieux bouquin, dans un hamac, par un beau dimanche après-midi...
À la prochaine !
____________________
1Et c'est probablement encore le cas...
2http://techno.branchez-vous.com/actualite/2009/06/20_000_sites_pirates_pour_infe.html
3« The Web's most dangerous keywords to search for » ZDNet, 27 mai 2009, http://blogs.zdnet.com/security/?p=3457&tag=nl.e540.
Mai 2009 >>> Oubliez le noir : la mode est à l'ordinateur vert !
Par les temps qui courent, tout le monde se met à l'heure de la protection de l'environnement. Ce n'est pas trop tôt me direz-vous, et avec raison. Je trouvais particulièrement déprimant d'entendre parler jour après jour des conséquences du réchauffement planétaire sans sentir un vent de changement se lever. Aujourd'hui, la société semble conscientisée et intéressée à la question ; c'est déjà un pas de franchi. Il nous reste maintenant à agir. Je vous propose donc ce mois-ci une chronique informatico-environnementale qui vous montrera que la gestion responsable de nos parcs informatiques peut aussi avoir un impact sur la planète.
Consomme, consomme...
Cette chronique s'inspire donc du mouvement « Green IT », qui prône une attitude écologiquement responsable chez les utilisateurs informatiques. À l'origine, ce mouvement ne concernait à peu près que les responsables d'importants parcs de serveurs informatiques et se limitait à limiter la consommation électrique de ces équipements énergivores. Mais aujourd'hui, le mouvement prend de l'ampleur tant dans son étendue que dans ses objectifs.
Malgré les apparences, un ordinateur consomme beaucoup d'électricité et génère une quantité importante de chaleur et contribue donc à l'épuisement des ressources et au réchauffement global. Et ce, sans parler du gaspillage phénoménal de ressources engendré par la production et de la distribution des appareils informatiques, ni de la pollution résultant de leur mise aux rebuts. Selon une étude de 2009, les ordinateurs utilisés en entreprise aux États-Unis produiraient à eux seuls 20 millions de tonnes de dioxyde de carbone, soit autant que quatre millions d'automobiles ! L'idée que l'informatique est moins polluante que l'usage du papier est donc un mythe à combattre. Il est maintenant établi que la dépense énergétique d'un ordinateur pendant sa durée de vie est largement supérieure à son prix d'achat, et que la consommation mondiale découlant de l'usage de composantes informatiques augmente de 5 % chaque année. Une bonne part des besoins en nouvelles centrales électriques découle donc du virage technologique... Ouf ! Avec la multiplication des ordinateurs à l'échelle planétaire, chaque petit geste peut donc faire une différence.
Ne pensons qu'à Google par exemple. Même si aucun inventaire officiel n'est disponible publiquement, certains informaticiens curieux ont estimé qu'en 2007, Google aurait été propriétaire d'environ 150 000 ordinateurs en fonction de façon permanente, 24 heures par jour, pour réussir à rendre les services qu'elle rendait à ce moment-là. On comprend aisément qu'une réduction, même minime, de la consommation électrique de ces appareils puisse avoir une incidence importante sur l'empreinte écologique de Google, et que les investissements requis pour ce faire sont largement compensés par l'économie d'énergie correspondante. Par exemple, la compagnie Dell qui possède quant à elle environ 50 000 ordinateurs, réalise des économies annuelles de plus de deux millions de dollars US en adoptant simplement la politique de fermer systématiquement ses machines la nuit1!
Maman! J'ai chaud !
À une plus petite échelle, la même logique s'applique à nos bureaux. Et collectivement, je parie que les notaires pourraient faire une différence encore plus grande et réaliser des économies du même coup. Fermer son appareil la nuit et la fin de semaine, c'est un excellent début. Rappelez-vous aussi que Windows dispose d'une fonction de gestion de l'alimentation qui vous permet de mettre le système en veille s'il n'est pas utilisé pendant un certain temps. Il faut aussi réaliser qu'une partie importante de la consommation électrique d'un ordinateur provient de ses ventilateurs. Les processeurs ayant tendance à surchauffer, il est primordial qu'un ordinateur soit bien aéré. Veillez donc à placer votre machine à l'air libre et à éviter le mobilier de bureau où les ordinateurs se retrouvent enfermés. Je suis d'accord qu'un ordi n'est pas l'objet le plus joli, mais le cacher ainsi entraîne certaines conséquences, qui peuvent même aller jusqu'au décès de la machine pour cause de surchauffe. Et comme les sorties d'air principales se situent à l'arrière de la machine, le fait que l'avant de l'ordinateur soit dégagé ne change pas grand-chose ...
Et un logiciel, est-ce énergivore? Mais non, voyons ! Un logiciel n'est pas branché au circuit électrique et ne consomme rien! Vraiment? Tout logiciel, lorsqu'il fonctionne, s'approprie pourtant une partie de la capacité du processeur et de la mémoire d'un ordinateur. Plus vous ouvrez de logiciels à la fois, plus votre processeur est utilisé, plus il consomme de l'énergie et plus il génère de la chaleur. C'est aussi bête que ça. Prenez donc l'habitude de fermer les logiciels que vous n'utilisez pas, et de nettoyer la liste des logiciels que votre ordinateur ouvre automatiquement au démarrage. Vous seriez surpris de voir tout ce qui roule en arrière plan de votre traitement de texte ou navigateur préféré... Votre machine consommera un peu moins d'énergie, et sera même plus performante.
Les nouvelles versions des logiciels demandant toujours de plus en plus de mémoire et de ressources, il est normal que votre « vieille » machine soit moins performante après une mise à jour logicielle. Avez-vous remarqué, par exemple, comment votre bécanne rame depuis que vous avez fait le passage à Office 2007 ? L'ajout de mémoire à votre machine l'aidera à gérer ces nouvelles demandes, à rouler un peu moins vite, tout en vous permettant souvent de reporter à peu de frais le moment de son remplacement.
Il faudrait aussi prendre l'habitude de s'assurer, lors de l'achat d'un nouvel équipement, d'évaluer sa consommation électrique car certaines machines sont beaucoup plus énergivores que d'autres. Par exemple, un ordinateur portable est par définition beaucoup plus économe en énergie puisque ses concepteurs font un effort additionnel pour lui donner la plus longue autonomie possible. Certains malins iront jusqu'à recommander à ceux qui se font bâtir des ordinateurs sur mesure d'utiliser des processeurs et disques durs destinés à des ordinateurs portables afin de se doter d'une machine fixe plus écologique. Pas si bête que ça...
À la prochaine!
1. Le soir, éteignez votre ordinateur! Branchez-vous, 25 mars 2009,
http://benefice-net.branchez-vous.com/actubn/2009/03/le_soir_eteignez_votre_ordinat.html
Consomme, consomme...
Cette chronique s'inspire donc du mouvement « Green IT », qui prône une attitude écologiquement responsable chez les utilisateurs informatiques. À l'origine, ce mouvement ne concernait à peu près que les responsables d'importants parcs de serveurs informatiques et se limitait à limiter la consommation électrique de ces équipements énergivores. Mais aujourd'hui, le mouvement prend de l'ampleur tant dans son étendue que dans ses objectifs.
Malgré les apparences, un ordinateur consomme beaucoup d'électricité et génère une quantité importante de chaleur et contribue donc à l'épuisement des ressources et au réchauffement global. Et ce, sans parler du gaspillage phénoménal de ressources engendré par la production et de la distribution des appareils informatiques, ni de la pollution résultant de leur mise aux rebuts. Selon une étude de 2009, les ordinateurs utilisés en entreprise aux États-Unis produiraient à eux seuls 20 millions de tonnes de dioxyde de carbone, soit autant que quatre millions d'automobiles ! L'idée que l'informatique est moins polluante que l'usage du papier est donc un mythe à combattre. Il est maintenant établi que la dépense énergétique d'un ordinateur pendant sa durée de vie est largement supérieure à son prix d'achat, et que la consommation mondiale découlant de l'usage de composantes informatiques augmente de 5 % chaque année. Une bonne part des besoins en nouvelles centrales électriques découle donc du virage technologique... Ouf ! Avec la multiplication des ordinateurs à l'échelle planétaire, chaque petit geste peut donc faire une différence.
Ne pensons qu'à Google par exemple. Même si aucun inventaire officiel n'est disponible publiquement, certains informaticiens curieux ont estimé qu'en 2007, Google aurait été propriétaire d'environ 150 000 ordinateurs en fonction de façon permanente, 24 heures par jour, pour réussir à rendre les services qu'elle rendait à ce moment-là. On comprend aisément qu'une réduction, même minime, de la consommation électrique de ces appareils puisse avoir une incidence importante sur l'empreinte écologique de Google, et que les investissements requis pour ce faire sont largement compensés par l'économie d'énergie correspondante. Par exemple, la compagnie Dell qui possède quant à elle environ 50 000 ordinateurs, réalise des économies annuelles de plus de deux millions de dollars US en adoptant simplement la politique de fermer systématiquement ses machines la nuit1!
Maman! J'ai chaud !
À une plus petite échelle, la même logique s'applique à nos bureaux. Et collectivement, je parie que les notaires pourraient faire une différence encore plus grande et réaliser des économies du même coup. Fermer son appareil la nuit et la fin de semaine, c'est un excellent début. Rappelez-vous aussi que Windows dispose d'une fonction de gestion de l'alimentation qui vous permet de mettre le système en veille s'il n'est pas utilisé pendant un certain temps. Il faut aussi réaliser qu'une partie importante de la consommation électrique d'un ordinateur provient de ses ventilateurs. Les processeurs ayant tendance à surchauffer, il est primordial qu'un ordinateur soit bien aéré. Veillez donc à placer votre machine à l'air libre et à éviter le mobilier de bureau où les ordinateurs se retrouvent enfermés. Je suis d'accord qu'un ordi n'est pas l'objet le plus joli, mais le cacher ainsi entraîne certaines conséquences, qui peuvent même aller jusqu'au décès de la machine pour cause de surchauffe. Et comme les sorties d'air principales se situent à l'arrière de la machine, le fait que l'avant de l'ordinateur soit dégagé ne change pas grand-chose ...
Et un logiciel, est-ce énergivore? Mais non, voyons ! Un logiciel n'est pas branché au circuit électrique et ne consomme rien! Vraiment? Tout logiciel, lorsqu'il fonctionne, s'approprie pourtant une partie de la capacité du processeur et de la mémoire d'un ordinateur. Plus vous ouvrez de logiciels à la fois, plus votre processeur est utilisé, plus il consomme de l'énergie et plus il génère de la chaleur. C'est aussi bête que ça. Prenez donc l'habitude de fermer les logiciels que vous n'utilisez pas, et de nettoyer la liste des logiciels que votre ordinateur ouvre automatiquement au démarrage. Vous seriez surpris de voir tout ce qui roule en arrière plan de votre traitement de texte ou navigateur préféré... Votre machine consommera un peu moins d'énergie, et sera même plus performante.
Les nouvelles versions des logiciels demandant toujours de plus en plus de mémoire et de ressources, il est normal que votre « vieille » machine soit moins performante après une mise à jour logicielle. Avez-vous remarqué, par exemple, comment votre bécanne rame depuis que vous avez fait le passage à Office 2007 ? L'ajout de mémoire à votre machine l'aidera à gérer ces nouvelles demandes, à rouler un peu moins vite, tout en vous permettant souvent de reporter à peu de frais le moment de son remplacement.
Il faudrait aussi prendre l'habitude de s'assurer, lors de l'achat d'un nouvel équipement, d'évaluer sa consommation électrique car certaines machines sont beaucoup plus énergivores que d'autres. Par exemple, un ordinateur portable est par définition beaucoup plus économe en énergie puisque ses concepteurs font un effort additionnel pour lui donner la plus longue autonomie possible. Certains malins iront jusqu'à recommander à ceux qui se font bâtir des ordinateurs sur mesure d'utiliser des processeurs et disques durs destinés à des ordinateurs portables afin de se doter d'une machine fixe plus écologique. Pas si bête que ça...
À la prochaine!
1. Le soir, éteignez votre ordinateur! Branchez-vous, 25 mars 2009,
http://benefice-net.branchez-vous.com/actubn/2009/03/le_soir_eteignez_votre_ordinat.html
Mars 2009 >>> Je le trouve, je le garde !
Dans mon bureau, j'ai un tiroir spécial. Un tiroir de garçon, rempli de toutes sortes de trucs tout à fait inutiles, dont je ne me sers jamais, mais dont je ne me déferais pour rien au monde. Ressorts, vieux stylos, timbres, petits objets d'origine et d'utilité inconnues... Certains ne s'y trouvent que depuis peu, d'autres m'ont suivis à travers plusieurs déménagements. Ils n'ont pas beaucoup de valeur mais plusieurs me rappellent des événements agréables, de beaux souvenirs. Je crois que tous les hommes ont un pareil tiroir. Mon père en avait un où je me plaisais à fouiner, en prenant bien soin de tout remettre en place. Aujourd'hui, j'ai découvert que mes fistons en ont un chacun. La tradition se maintient.
Bon... les malins me diront que mon destin était vraiment de me lancer dans le notariat, profession vouée à la conservation. C'est un peu vrai. Même s'il est plus rare que de beaux souvenirs leurs soit rattachés, l'importance de préserver l'accès aux informations détenues par le notaire est beaucoup plus cruciale. En cette ère du document dématérialisé, le notariat québécois n'est pas le seul à se questionner sur la pérennité des informations consignées sur support informatique. Car le problème est de taille, et m'a toujours interpellé.
En effet, les archives électroniques, à la différence des dépôts traditionnels, courent le risque de devenir totalement inutile par la désuétude des systèmes et des applications qui ont servi à les créer, et ce malgré le fait que leur conservation soit entourée de toutes les mesures de sécurité possibles. Par exemple, de vieux fichiers générés sous une version antique de WordPerfect ou de Lotus 123 pourraient peut-être ne plus être ouverts et utilisés sur nos systèmes...
Papa ! Ça ne marche plus !
Mettant de côté la problématique des fichiers signés numériquement qui soulèvent des questions techniques et juridiques plus complexes, une des pistes de solution est de s'assurer que le passage à un autre logiciel d'application soit accompagné d'une migration des fichiers archivés vers le nouveau format utilisé. Sinon, quelques tests s'imposent afin de s'assurer que le nouveau système dispose des filtres et des convertisseurs nécessaires à l'ouverture vos antiquités quand vous en aurez besoin.
Il n'en demeure pas moins que subsistent, et subsisteront toujours, quelque part, des fichiers illisibles, conservés sans trop d'espoir de pouvoir les consulter ou dont les propriétaires ignorent tout simplement qu'ils sont devenus inutiles. Ceux qui, comme moi, sont passionnés d'histoire et d'archéologie pourront comparer la problématique à la découverte d'archives importantes d'une civilisation disparue, mais qui restent inutiles parce que rédigées dans un dialecte que plus personne ne comprend. Comment régler ce problème?
Si cette question vous préoccupe, vous pourrez finalement bien dormir ce soir car une équipe de chercheurs anglais a décidé de s'attaquer au problème1. Leur projet surnommé KEEP (2), vise en effet à produire un logiciel d'émulation permettant d'ouvrir une multitude de fichiers informatiques de formats tombés en désuétude. L'ambitieux projet jouit d'un financement important, près de six millions de dollars, et est mené par l'Université de Portsmouth en Angleterre.
Mais qu'est-ce au juste que l'émulation ? Wikipedia nous dit que « [...] l'émulation consiste à substituer un élément de matériel informatique - tel un terminal informatique, un ordinateur ou une console de jeux - par un logiciel ». Nous comprenons donc qu'il s'agit ici de créer un logiciel qui pourra simuler la façon de faire de systèmes et d'applications disparus, et d'utiliser correctement des fichiers générés sous leur code. Il existe déjà de nombreux émulateurs sur le Web, permettant par exemple aux fanatiques de certains jeux vidéos disparus de renouer avec des plaisirs qu'ils croyaient envolés, ou encore d'émuler le fonctionnement de la ligne de commande DOS et d'accéder ainsi à certaines de ses fonctions.
Le projet KEEP vise donc à éviter que ne se répète à notre ère la disparition dramatique de documents relatant des pans entiers de l'activité humaine. Car le problème n'est pas banal. Le seul Département des archives de sa Majesté Britannique estime détenir des fichiers en formats désuets qui, une fois décodés, pourraient remplir une encyclopédie de près de 600 000 volumes ! La possibilité que toutes ces informations soient perdues à jamais constituerait donc une véritable tragédie pour la culture mondiale. Sans compter que la recherche d'accès à des données anciennes entraîne des coûts importants pour l'économie, estimés à près de cinq millions de dollars par an seulement en Europe. Souhaitons donc bonne chance au projet KEEP !
Mentalité bleue, cabinet noir
Je ne peux plus m'en cacher, puisque j'ai fait mon coming out tout à l'heure : je suis un mordu d'histoire, particulièrement du siècle des Lumières. Ce siècle pétillant où se sont affrontés aristocrates libertins et paysans affamés, penseurs égalitaires et gouvernants autoritaires, est le bouillon de culture d'où est sorti notre monde actuel. Pas étonnant de retrouver encore aujourd'hui chez nos politiciens certains vieux réflexes issus du Grand Siècle.
Le « cabinet noir » désignait les bureaux des services de renseignement dédiés à la surveillance des communications privées. Sous le couvert des services postaux naissants, les gouvernements de l'époque se dotaient en effet d'un puissant outil d'espionnage dont les activités consistaient à ouvrir, lire et souvent copier, le courrier des citoyens. Notre bon gouvernement fédéral veut donc ressusciter le cabinet noir3 à l'aide d'une loi forçant les fournisseurs d'accès Internet à laisser les services policiers surveiller les échanges électroniques des citoyens.
Même si cette loi prévoira l'obtention d'un mandat judiciaire pour permettre l'accès aux données, la nature même du Web rend toute forme de surveillance beaucoup plus inquiétante que la simple installation d'une table d'écoute téléphonique. En effet, la plupart des législations existant présentement en la matière dans le monde oblige les fournisseurs non pas à laisser accès aux policiers à leurs systèmes à partir d'une date donnée, mais les force plutôt à accumuler les échanges en vue d'un accès éventuel. Les forces de l'ordre obtiennent donc alors rétroactivement copie des échanges, ce qui dépasse largement la portée de la simple écoute électronique traditionnelle.
De là à conclure que nous pourrions tous être désormais sous surveillance constante, il n'y a qu'un pas ! L'annonce est récente, mais mérite que nous suivions de près son évolution. Nous aurons certainement l'occasion d'y revenir.
À la prochaine !
_____________________
1« Un logiciel pour lire les vieux formats », Branchez-vous, http://techno.branchez-vous.com/actualite /2009/02/un_logiciel_pour_lire_les_vieu.html ; voir aussi « Fresh start for lost file formats » BBC News, http://news.bbc.co.uk/2/hi/technology/7886754.stm?format
2 Keeping Emulation Environments Portable.
3« New law to give police access to online exchanges », Globe and Mail, http://www.theglobeandmail.com/servlet/story/RTGAM.20090212.wwiretap12/BNStory/National/?cid=al_gam_nletter_techweekly
Bon... les malins me diront que mon destin était vraiment de me lancer dans le notariat, profession vouée à la conservation. C'est un peu vrai. Même s'il est plus rare que de beaux souvenirs leurs soit rattachés, l'importance de préserver l'accès aux informations détenues par le notaire est beaucoup plus cruciale. En cette ère du document dématérialisé, le notariat québécois n'est pas le seul à se questionner sur la pérennité des informations consignées sur support informatique. Car le problème est de taille, et m'a toujours interpellé.
En effet, les archives électroniques, à la différence des dépôts traditionnels, courent le risque de devenir totalement inutile par la désuétude des systèmes et des applications qui ont servi à les créer, et ce malgré le fait que leur conservation soit entourée de toutes les mesures de sécurité possibles. Par exemple, de vieux fichiers générés sous une version antique de WordPerfect ou de Lotus 123 pourraient peut-être ne plus être ouverts et utilisés sur nos systèmes...
Papa ! Ça ne marche plus !
Mettant de côté la problématique des fichiers signés numériquement qui soulèvent des questions techniques et juridiques plus complexes, une des pistes de solution est de s'assurer que le passage à un autre logiciel d'application soit accompagné d'une migration des fichiers archivés vers le nouveau format utilisé. Sinon, quelques tests s'imposent afin de s'assurer que le nouveau système dispose des filtres et des convertisseurs nécessaires à l'ouverture vos antiquités quand vous en aurez besoin.
Il n'en demeure pas moins que subsistent, et subsisteront toujours, quelque part, des fichiers illisibles, conservés sans trop d'espoir de pouvoir les consulter ou dont les propriétaires ignorent tout simplement qu'ils sont devenus inutiles. Ceux qui, comme moi, sont passionnés d'histoire et d'archéologie pourront comparer la problématique à la découverte d'archives importantes d'une civilisation disparue, mais qui restent inutiles parce que rédigées dans un dialecte que plus personne ne comprend. Comment régler ce problème?
Si cette question vous préoccupe, vous pourrez finalement bien dormir ce soir car une équipe de chercheurs anglais a décidé de s'attaquer au problème1. Leur projet surnommé KEEP (2), vise en effet à produire un logiciel d'émulation permettant d'ouvrir une multitude de fichiers informatiques de formats tombés en désuétude. L'ambitieux projet jouit d'un financement important, près de six millions de dollars, et est mené par l'Université de Portsmouth en Angleterre.
Mais qu'est-ce au juste que l'émulation ? Wikipedia nous dit que « [...] l'émulation consiste à substituer un élément de matériel informatique - tel un terminal informatique, un ordinateur ou une console de jeux - par un logiciel ». Nous comprenons donc qu'il s'agit ici de créer un logiciel qui pourra simuler la façon de faire de systèmes et d'applications disparus, et d'utiliser correctement des fichiers générés sous leur code. Il existe déjà de nombreux émulateurs sur le Web, permettant par exemple aux fanatiques de certains jeux vidéos disparus de renouer avec des plaisirs qu'ils croyaient envolés, ou encore d'émuler le fonctionnement de la ligne de commande DOS et d'accéder ainsi à certaines de ses fonctions.
Le projet KEEP vise donc à éviter que ne se répète à notre ère la disparition dramatique de documents relatant des pans entiers de l'activité humaine. Car le problème n'est pas banal. Le seul Département des archives de sa Majesté Britannique estime détenir des fichiers en formats désuets qui, une fois décodés, pourraient remplir une encyclopédie de près de 600 000 volumes ! La possibilité que toutes ces informations soient perdues à jamais constituerait donc une véritable tragédie pour la culture mondiale. Sans compter que la recherche d'accès à des données anciennes entraîne des coûts importants pour l'économie, estimés à près de cinq millions de dollars par an seulement en Europe. Souhaitons donc bonne chance au projet KEEP !
Mentalité bleue, cabinet noir
Je ne peux plus m'en cacher, puisque j'ai fait mon coming out tout à l'heure : je suis un mordu d'histoire, particulièrement du siècle des Lumières. Ce siècle pétillant où se sont affrontés aristocrates libertins et paysans affamés, penseurs égalitaires et gouvernants autoritaires, est le bouillon de culture d'où est sorti notre monde actuel. Pas étonnant de retrouver encore aujourd'hui chez nos politiciens certains vieux réflexes issus du Grand Siècle.
Le « cabinet noir » désignait les bureaux des services de renseignement dédiés à la surveillance des communications privées. Sous le couvert des services postaux naissants, les gouvernements de l'époque se dotaient en effet d'un puissant outil d'espionnage dont les activités consistaient à ouvrir, lire et souvent copier, le courrier des citoyens. Notre bon gouvernement fédéral veut donc ressusciter le cabinet noir3 à l'aide d'une loi forçant les fournisseurs d'accès Internet à laisser les services policiers surveiller les échanges électroniques des citoyens.
Même si cette loi prévoira l'obtention d'un mandat judiciaire pour permettre l'accès aux données, la nature même du Web rend toute forme de surveillance beaucoup plus inquiétante que la simple installation d'une table d'écoute téléphonique. En effet, la plupart des législations existant présentement en la matière dans le monde oblige les fournisseurs non pas à laisser accès aux policiers à leurs systèmes à partir d'une date donnée, mais les force plutôt à accumuler les échanges en vue d'un accès éventuel. Les forces de l'ordre obtiennent donc alors rétroactivement copie des échanges, ce qui dépasse largement la portée de la simple écoute électronique traditionnelle.
De là à conclure que nous pourrions tous être désormais sous surveillance constante, il n'y a qu'un pas ! L'annonce est récente, mais mérite que nous suivions de près son évolution. Nous aurons certainement l'occasion d'y revenir.
À la prochaine !
_____________________
1« Un logiciel pour lire les vieux formats », Branchez-vous, http://techno.branchez-vous.com/actualite /2009/02/un_logiciel_pour_lire_les_vieu.html ; voir aussi « Fresh start for lost file formats » BBC News, http://news.bbc.co.uk/2/hi/technology/7886754.stm?format
2 Keeping Emulation Environments Portable.
3« New law to give police access to online exchanges », Globe and Mail, http://www.theglobeandmail.com/servlet/story/RTGAM.20090212.wwiretap12/BNStory/National/?cid=al_gam_nletter_techweekly
Inscription à :
Articles (Atom)