Les technologies du Web revisitées par Catherine, Laure et Viviane

Partager :

Cet article a été rédigé à la suite du cours d’Evelyne Broudoux, enseignante-chercheur au CNAM.

De la préhistoire d’Internet à nos jours, cela fait un siècle de technologies à vous raconter …
Si on ajoute à cela les multiples questions d’ordre économique, social et juridique liées à l’essor du numérique, autant vous avouer tout de suite que notre modeste article ne sera ni exhaustif, ni à la hauteur des enjeux !

Pour commencer, nous vous proposons un retour aux sources avec quelques dates clés.
Ensuite, nous ferons un détour par les différents intitulés et usages du Web.
Enfin, nous vous soumettrons quelques préoccupations liées aux nouvelles applications du Web.

1. Retour aux sources

La préhistoire d’Internet : de 1910 à 1969

1910 : 1ère indexation de photos par Paul Otlet (1868-1944).
1934 : « Traité de documentation » de Paul Otlet.
Ce juriste belge est le père de la documentation moderne, le premier à avoir imaginé l’invention d’Internet, du Web et même de Wikipédia.
1945 : Invention du Memex par l’américain Vannevar Bush (1890-1974).
Cette machine imaginaire préfigure les futurs ordinateurs personnels ainsi que les liens hypertextes.
1965 : Le sociologue américain Theodor Nelson (né en 1937) présente le terme Hypertexte, écriture non séquentielle.
1967 : Le projet Xanadu de T. Nelson repose sur 17 principes favorisant l’accès, l’indexation et la préservation de documents de littérature et d’art. Cet enfant d’Hollywood, passionné par la relation homme-machine verra la réalisation de ce système trop complexe s’éterniser.

Internet et Web, 2 dates clés : 1969 et 1990

Au départ Internet est un réseau d’ordinateurs destiné à échanger des informations par les militaires.
Cela est devenu possible en divisant cette information en paquets grâce au protocole TCP IP. Ces paquets voyagent indépendamment dans un réseau décentralisé, puis se reforment à l’arrivée. L’avantage d’un réseau non centralisé est que même si une partie du réseau n’est pas disponible, il y a toujours un chemin.

En 1969, le réseau comptait seulement 4 serveurs aux États-Unis. L’Arpanet est chargé de développer ce réseau pour relier des chercheurs, en leur permettant d’utiliser des logiciels présents dans d’autres universités.
Peu à peu les chercheurs utilisent ce réseau pour correspondre professionnellement, puis personnellement.
En France, le réseau Cyclades vise à développer les réseaux et il sera abandonné au profit du Minitel.

WEB 1, 2, 3 partez !

L’année 1990 est marquée par la naissance du Word Wide Web.

« L’idée de base du WWW est de combiner les technologies des ordinateurs personnels, des réseaux informatiques et de l’hypertexte en un système d’information mondial, puissant et facile à utiliser ».

2. Le Web : Une évolution continue face à un discours Marketing

Web 1.0 Read only : Le Web des documents

C’est le Web des années 90, celui qui voit émerger le HTML, les sites sont statiques. Ces pages présentent un langage linéaire et un design simpliste.

Web 2.0 Read/write : Le Web des gens

L’expression du Web 2.0 est proposée par Dale Dougherty, membre de l’équipe de Tim O’Reilly en 2004. Pour ce-dernier, le salut des industries de la culture dans l’effondrement spéculatif de la bulle Internet repose sur un modèle participatif.

L’utilisateur, professionnel et amateur, est au cœur de ce Web social (réseaux sociaux, blogs). Il crée, modifie, partage du contenu et des informations (textes, vidéos, images). Les nouvelles technologies permettent la prolifération d’interfaces esthétiques et dynamiques.

Une nouvelle forme de financement est apparue pour les développeurs, définie par certains comme du « travail gratuit » avec la génération de contenus par les utilisateurs eux-mêmes,. On peut alors légitimement se demander si ce Web 2.0 n’est pas plus le Web des services pour ses développeurs que pour ses usagers.

Web 3.0 Linked data : Le Web des objets communicants

C’est le Web sémantique dont le terme apparaît en 2006 dans le blog de Jerry Zelman. Les sites deviennent des applications en ligne qui analysent automatiquement les contenus écrits et picturaux, qui les classent selon leur sens et les rediffusent vers de nouveaux internautes.
Ce Web des données s’adapte donc aux besoins des usagers. Il représente un intérêt considérable pour les entreprises mais également le risque d’un Web omniprésent.

Selon Évelyne Broudoux, il y a en réalité un continuum dans l’évolution des langages. Au départ il faut apprendre un langage et coder pour publier des contenus  : HTML, Java, ASP, Oracle, XHTML, CSS, PHP, MySQL, XML, Javascript, HTML5, CSS3, Ajax …

Les outils de publications sans avoir besoin de coder se sont ensuite développés, les CMS, puis les outils de microblogging : Tumblr, Twitter…

3. Et le Web … demain ?

L’évolution des technologies du Web mais surtout des usages qui en sont fait posent d’innombrables questions et laissent présager encore de nombreux débats. Pour illustrer notre propos, nous nous sommes intéressées au domaine de la santé.

D’une part, depuis déjà de nombreuses années, nous laissons quotidiennement des traces de nos vies, volontairement ou non, sur le Web. D’autre part, l’ouverture des données scientifiques et des données publiques se réalise progressivement. Enfin, de plus en plus d’objets se retrouvent connectés à Internet, y compris notre corps.

À ce sujet, nous vous invitons à lire le 2ème numéro des cahiers Innovation et Prospective de la CNIL sur le thème “Le corps, nouvel objet connecté : du quantified self à la M-Santé : les nouveaux territoires de la mise en données du monde”

Tout cela peut permettre d’incontestables avancées dans le domaine de la recherche médicale ; améliorer sans doute le traitement de certaines maladies graves ou chroniques ; permettre à des personnes en situation de handicap ou à des personnes âgées de mieux vivre au quotidien

De l’autre, il y a nos vies privées et nos libertés individuelles, autrement dit de nombreuses questions éthiques en suspens. La Science en général et la Médecine en particulier vont-elles davantage nous dicter nos conduites, “formater” nos comportements ?

Avec les évolutions du Web, demain, nos vies seront-elles améliorées, augmentées ou mieux contrôlées, surveillées ?

L’histoire de l’informatique est très marquée par les questions de contrôle et d’intérêt pour la logistique.  L’ordinateur comme Internet sont tous deux nés dans un contexte de guerre (2nde guerre mondiale et guerre froide).

Pourtant, les êtres humains, individuellement et collectivement, ont réussi à développer de superbes outils de mise en relations, de partage d’informations et de connaissances.

Alors, soyons confiants et restons vigilants.

 

 

 

Partager :

Présentation de la plate-forme Knowledge Plaza

Partager :

Présentation de

 Knowledge Plaza - "The place beyond search"

 par Antoine Perdaens, créateur et CEO de Knowledge Plaza

 

Jeudi 1er décembre 2011 
 

 

Knowledge Plaza (KP) est une entre prise belge de 15 personnes créée par Antoine Perdaens à partir de l’idée de faciliter le partage de tous types de documents électroniques. Antoine Perdaens nous présente l’outil Knowledge Plaza : une plate-forme de réseau social et de partage des documents fonctionnant en mode SAAS.
Arguments avancés pour le choix d’une solution en mode SAAS (software as a service):
  • Rapidité de déploiement initial…
  • …et des évolutions ultérieures
  • Plus d’indépendance des utilisateurs par rapport à la DSI
  • Décharge la DSI des tâches de sécurité…
  • Economie de bande-passante
  • Mise en place facilitée d’un pilote pour expérimenter la solution
  • Adapté aux utilisations sur les terminaux mobiles

 

Présentation d’un cas client : Choix de KP par le groupe Lafarge

Problématique : permettre le partage des bonnes pratiques entre les entités réparties dans différents pays

Etat des lieux :

– 20 Knowledge Managers
– 600 experts
– 10.000 collaborateurs concernés

Préocupation entreprise : Récolter plus de contenu de valeur / Valoriser la connaissance

Préocupation consommateurs : Trouver rapidement une information pertinente

Diagnostic de KP :

1/ Sortir le partage de l’e-mail
2/ Supprimer les interfaces et formulaires complexes
3/ Simplifier la recherche
4/ Connecter les utilisateurs en réseau pour identifier leur compétences réciproques et s’en servir

Rôle des gestionnaires :

1/ Suivre les experts pour recueillir l’information
2/ Participer au partage : Les échanges entre experts vont générer une masse importante d’information. Le rôle du knowledge manager est de filtrer et capturer l’information pour la recontextualiser.
3/ Personnaliser les flux RSS pour diffuser l’information

Finalité : transmettre une information pertinente décryptée et mise en perspective dans des délais adaptés au public concerné.

Déroulement du projet :

      • 3 mois pour tester et valider l’outil (Compatibilité avec le SI, test de la bande passante, préparation de l’intégration…)
      • 3 mois pour « évangéliser » (on commence la conduite du changement!)
      • 3 mois pour rédiger les spécifications en vue de finaliser l’intégration

Quelques clés du succès de la solution selon KP :

      • Single Sign On : pour ne pas multiplier les mots de passe
      • Intégration portail : Intégrer l’outil KP aux applications exitantes où les utilisateurs se trouvent
      • Repérer l’existant > l’extraire > l’importer à commencer avec du contenu
      • Travail avec la DSI pour l’analyse des besoins de sécurisation des données
      • Réversibilité (garantit par l’appartenance des données et les tests de réverasabilité)

KP constitue, pour le groupe Lafarge, un base de connaissance, un dispositif de veille collaborative, un outil non pas de collecte d’informations (l’outil ne crawl pas le web) , mais de gestion (centralisation, valorisation et diffusion) d’informations.

Autres aspects qui ressortent de la démo de l’outil :
      • La possibilité de  gérer tous types de documents : traitement de texte, pdf, courriel, image, documents provenant d’autres réseaux sociaux, bookmark…
      • L’organisation autour de facettes : une facette est une catégorie qui structure les tags
      • Les mosaic : édition collaborative de pages de contenu. On peut venir ajouter une sélection d’information prise dans KP (système de sélection par panier) ou tout autres types de documents.
      • Recherche par moteur de recherche sur la base des contributions avec filtre par mot-clé et/ou filtre par auteur
      • Recherche sauvegardée.  Permet de paramétrer l’envoi d’alerte. On peut utiliser cette fonction pour éditer une newsletter envoyée à une liste d’utilisateurs prédéfinis.
      • Export des mosaic sous forme de dossiers regroupant les différents contenus attachés
      • Un système de tags qui peuvent être libres de saisie ou encadrés par l’organisme. Les tags peuvent ainsi être gérés dans plusieurs langues.
      • Des espaces (communautés privées ou publiques). Leur sont associé des flux RSS sur la base des tags
        Cela permet de diffuser automatiquement sur une page de la plateforme la liste des informations remontées par tous les autres  utilisateurs.

Les questions-réponses sont sur Elgg

Eric VetHélène D’haene

Partager :