Le Web à la puissance 2 : le Web 2.0 cinq ans plus tard

On ne présente plus vraiment Tim O’Reilly et John Battelle. Tim O’Reilly, des éditions O’Reilly, est devenu l’un des gourous incontournables du web. Initiateur – et promoteur – de la notion de Web 2.0 (voir notre traduction), il demeure l’un des plus fins observateurs du changement technologique. John Battelle, journaliste, auteur de La révolution Google est quant à lui l’un des spécialistes des moteurs de recherche. Ils ont commis, à l’entrée de l’été, un texte important, essayant de définir, 5 ans après l’apparition de la notion de Web 2.0, l’émergence d’un nouveau paradigme, entre le Web 2.0 (celui des plates-formes sociales) et le Web 3.0 (le web sémantique), comme l’explique très bien Frédéric Cavazza. Un terme qui s’efforce de mettre en cohérence l’évolution du web des plateformes 2.0 vers le temps réel, les écosystèmes de données, les objets communicants…

C’est là le Web Squared, ce web à la puissance 2, ce web exponentiel (1) que proposent O’Reilly et Battelle. Après avoir déplacé les utilisateurs au coeur du système (Web 2.0), ce Web² s’intéresse aux données. Ce sont elles la nouvelle puissance du web ! On passe d’un web 2.0 qui exploite l’intelligence collective des hommes à un Web² qui exploite l’intelligence collective des capteurs et des données… Un texte important, qui méritait une traduction.

Il y a cinq ans, nous lancions une conférence sur une idée simple, qui est devenue un mouvement. La Conférence originale Web 2.0 (dorénavant le Sommet Web 2.0) a été conçue dans le but de redonner confiance à une industrie déboussolée après l’éclatement de la bulle internet. Le Web n’en était qu’à ses premiers temps, avancions-nous. En fait, il était en voie de devenir une plateforme robuste pour une génération d’applications et de services informatiques qui allaient transformer notre culture.

Dans notre programme initial, nous nous demandions pourquoi certaines entreprises avaient survécu à cette bulle, tandis que d’autres avaient échoué si lamentablement. Nous observions également l’éclosion d’un ensemble de startups et cherché à comprendre pourquoi elles se développaient si rapidement. Les réponses nous ont aidés à comprendre les principes du marché sur cette nouvelle plateforme.

Notre principale intuition était que « le réseau en tant que plateforme » signifiait bien davantage que simplement fournir de vieilles applications via le réseau (« le logiciel comme service ») ; cela signifiait à mesure que leur des applications qui s’amélioraient à mesure que leur nombre d’utilisateurs augmentait, en exploitant les effets de réseau, non seulement pour gagner de nouveaux utilisateurs, mais aussi pour apprendre et progresser à partir de leurs contributions.

De Google et Amazon à Wikipedia, eBay et Craiglist, nous constations que le logiciel jouait un rôle facilitateur, mais que la valeur était créée par et pour la communauté des utilisateurs. Depuis, de nouvelles et puissantes plateformes, telles Youtube, Facebook et Twitter, ont démontré cette même idée de nouvelles manières. Le Web 2.0 consiste à exploiter l’intelligence collective.

Les applications de l’intelligence collective reposent sur la gestion, la compréhension et l’exploitation de quantités massives de données générées par les utilisateurs en temps réel. Les « sous-systèmes » du système d’exploitation internet qui émerge sont de plus en plus des sous-systèmes de données : localisation, identité (des personnes, des produits, des lieux), et les écheveaux de sens qui les lient entre eux. Cela produit de nouveaux leviers davantage concurrentiels : les données sont le « Intel inside » de la prochaine génération d’applications informatiques.

Aujourd’hui, nous réalisons que ces idées n’allaient pas seulement dans la bonne direction, mais qu’elles se sont aussi appliquées à des domaines que nous ne pouvions qu’imaginer en 2004. La révolution des smartphones a déplacé le Web de nos bureaux à nos poches. Les applications d’intelligence collective ne sont plus seulement activées par des humains tapant sur des claviers, mais, de plus en plus, par des capteurs. Nos téléphones et nos appareils photo deviennent les yeux et les oreilles des applications ; des capteurs de mouvement et de localisation indiquent où nous sommes, ce que nous regardons, et à quelle vitesse nous nous déplaçons. Des données sont collectées, présentées et exploitées en temps réel. L’échelle de la participation gagne plusieurs ordres de grandeur.

Avec plus d’utilisateurs et de capteurs alimentant plus d’applications et de plates-formes, les développeurs sont capables d’affronter les problèmes sérieux du monde réel. En conséquence, les possibilités du Web ne croissent plus de manière arithmétique : elles croissent de manière exponentielle. D’où notre thème pour cette année : le Web à la puissance deux. 1990-2004 : l’allumette a été frottée. 2005-2009 était l’amorce. 2010 sera l’explosion.

Depuis l’instant où nous avons introduit pour la première fois le terme « Web 2.0 », les gens n’ont cessé de nous demander « Et après ? » Comme si le Web 2.0 faisait référence à une sorte de numéro de version d’un logiciel (plutôt qu’à un énoncé à propos de la seconde naissance du Web après la bulle Internet), nous étions constamment interrogés sur le « Web 3.0 ». S’agira-t-il du Web sémantique ? Du Web sensible ? Du web social ? Du web mobile ? Sera-t-il une forme de réalité virtuelle ?

Il est tout cela, et plus encore.

Le Web n’est plus une collection de pages statiques en HTML qui décrivent quelque chose du monde. De plus en plus, le Web est le monde – chaque chose et chaque personne de ce monde projettent une « ombre d’information », une aura de données, qui, captée et traitée de manière intelligente, ouvre d’extraordinaires possibilités et de stupéfiantes implications. Le Web puissance deux est notre façon d’explorer ce phénomène et de lui donner un nom.

Redéfinir l’intelligence collective : une nouvelle participation sensorielle

Pour comprendre dans quelle voie le Web se dirige, il est utile de revenir à l’une des idées fondamentales qui sous-tend le Web 2.0, à savoir que les applications en réseau qui réussissent sont des systèmes exploitant l’intelligence collective.

Beaucoup de gens comprennent aujourd’hui cette idée dans le sens du « crowdsourcing », à savoir qu’un grand groupe de personnes peut créer une œuvre collective dont la valeur dépasse de loin celle que peut produire n’importe quel participant individuel. Le Web dans son ensemble est une merveille de crowdsourcing, comme le sont les places de marchés telles qu’eBay et Craigslist, les collections de divers médias tels YouTube et Flickr, ou encore les vastes collections de flux d’activités personnels que l’on produit sur Twitter, MySpace et Facebook.

Beaucoup de gens comprennent également que l’on peut construire des applications de manière à orienter leurs utilisateurs vers la réalisation de tâches spécifiques, comme l’élaboration d’une encyclopédie en ligne (Wikipedia), l’annotation d’un catalogue en ligne (Amazon), l’ajout de points de données sur une carte (les nombreuses applications web de cartographie), ou la découverte des actualités les plus populaires (Digg, Twine). Le Mechanical Turk d’Amazon a été jusqu’à proposer une plate-forme pour employer des personnes à des tâches que des ordinateurs seuls ne parviennent pas à réaliser.

Mais est-ce vraiment ce que nous entendons par intelligence collective ? L’intelligence, après tout, ne se définit-elle pas entre autres comme cette caractéristique qui permet à un organisme d’apprendre et de réagir à son environnement ? (Notez que nous laissons entièrement de côté la question de la conscience de soi. Pour le moment en tout cas.)

Imaginez le Web (défini au sens large, comme le réseau de tous les appareils et applications connectés, et non l’application destinée aux PC officiellement connue sous le nom de World Wide Web) comme un nouveau-né. Il voit, mais au début, il ne peut concentrer le regard. Il peut sentir, mais il ne connaît la taille de quelque chose qu’en le portant à la bouche. Il entend les paroles de ses parents souriants, mais ne peut les comprendre. Il est submergé de sensations, mais il n’en comprend pas la plupart. Il n’a pas ou peu de contrôle sur son environnement.

Petit à petit, le monde commence à prendre sens. Le bébé coordonne les perceptions issues de ses nombreux sens, distingue le signal du bruit, acquiert de nouveaux talents, et les tâches autrefois difficiles deviennent automatiques.

La question qui se pose est alors la suivante : le web devient-il plus intelligent à mesure qu’il grandit ?

Considérons la recherche d’informations – aujourd’hui la lingua franca du Web. Les premiers moteurs de recherche, en commençant par le WebCrawler de Brian Pinkerton, portaient pour ainsi dire tout à leur bouche. Ils suivaient les liens avec avidité, consommant tout ce qu’ils trouvaient. Le classement s’établissait par la « force brute » des correspondances de mots-clefs.

En 1998, Larry Page et Sergey Brin accomplissaient une percée en réalisant que les liens ne sont pas simplement un moyen de trouver de nouveaux contenus, mais aussi un moyen de les classer et de les relier à la grammaire plus élaborée du langage naturel. En substance, chaque lien est devenu un vote, et les votes de personnes compétentes (ainsi mesuré par le nombre et la qualité des personnes qui à leur tour votent pour eux) comptent plus que d’autres.

Les moteurs de recherche modernes utilisent maintenant des algorithmes complexes et des centaines de critères de classement différents pour produire leurs résultats. On compte, parmi les sources de données, celle de la boucle de rétroaction générée par la fréquence des termes de recherche, le nombre de clics d’utilisateurs sur un résultat de recherche, et nos propres recherches personnelles et historiques de navigation. Par exemple, si une majorité d’utilisateurs commence à cliquer sur le cinquième élément d’une page spécifique de résultats de recherche plus souvent que le premier, l’algorithme de Google interprète ceci comme un signal indiquant que le cinquième résultat est potentiellement meilleur que le premier, et ajuste finalement les résultats en conséquence.

Considérons maintenant une application de recherche encore plus récente, Google Mobile pour l’iPhone. L’application détecte le déplacement du téléphone vers votre oreille, et passe automatiquement en mode de reconnaissance vocale. Elle utilise le micro pour écouter votre voix, et décode ce que vous dites, à partir, non seulement de ses algorithmes et de sa base de données de reconnaissance vocale, mais aussi de la correspondance avec les termes de recherche les plus fréquents présents dans sa base de données de recherches. Le téléphone utilise le GPS ou la triangulation cellulaire afin de détecter son emplacement, et exploite également cette information. Une recherche pour « pizza » renvoie le résultat qui sera probablement celui que vous attendiez : le nom, l’emplacement et les coordonnées des trois pizzerias les plus proches.

Tout d’un coup, nous ne cherchons plus par l’intermédiaire d’un clavier et d’une grammaire de recherche formelle, nous parlons au Web et avec lui. Il devient assez intelligent pour comprendre certaines choses (telles que notre position) sans que nous ayons à le lui dire explicitement. Et ce n’est que le début.

Et si certaines des bases de données référencées par l’application – telle la correspondance entre coordonnées GPS et adresses – sont « enseignées » à celle-ci, d’autres, comme la reconnaissance vocale, sont « apprises » par le traitement de grands ensembles de données « crowdsourcés ».

Voilà manifestement un système « plus intelligent » que ceux que nous connaissions il y a encore quelques années. La coordination de la reconnaissance vocale et de la recherche, des résultats de recherche et du lieu, est similaire à la coordination « main-œil » que le bébé acquiert progressivement. Le Web grandit, et nous sommes tous ses parents collectifs.

Faire coopérer les sous-systèmes de données

Dans notre analyse initiale du Web 2.0, nous avancions que le futur « système d’exploitation internet » se composerait d’une série de sous-systèmes de données interopérables. L’application Google Mobile fournit un exemple de la façon dont un système d’exploitation fondé sur les données pourrait fonctionner.

Dans cet exemple, toutes les données des sous-systèmes sont la propriété d’un fournisseur – Google. Dans d’autres cas, comme avec Apple iPhoto ’09, qui intègre Flickr et Google Maps, ainsi que les propres services d’Apple, l’application utilise des services de bases de données distribuées provenant de nombreux fournisseurs.

Comme nous l’avions d’abord noté en 2003, « les données sont le Intel Inside » de la prochaine génération d’applications informatiques. Ainsi, si une entreprise a le contrôle sur une source unique de données nécessaire au fonctionnement d’applications, elle sera en mesure de tirer une rente monopolistique de l’utilisation de ces données. En particulier, si une base de données est générée par des contributions d’utilisateurs, les leaders du marché seront en situation de rendements croissants, puisque la taille et la valeur de leur base de données progresseront plus rapidement que celles de n’importe quel nouvel entrant.

Nous voyons par conséquent l’ère du Web 2.0, comme une course à l’acquisition et au contrôle de fonds de données. Certains de ces fonds – la masse critique des listes de vendeurs sur eBay, ou la masse critique des publicités par petites annonces sur Craigslist – sont spécifiques aux applications. Mais d’autres ont déjà toutes les caractéristiques de services essentiels, d’infrastructures du système.

Prenons par exemple les registres des noms de domaine du DNS, qui constituent l’une des épines dorsales de l’internet. Pensons à CDDB (la base de données des disques compacts, NDT), utilisée par pratiquement toutes les applications musicales pour consulter les métadonnées des chansons et albums. De même, les données cartographiques de fournisseurs comme Navteq et TeleAtlas sont utilisées par quasiment toutes les applications de cartographie en ligne.

Il y a une compétition actuellement pour s’emparer du graphe social. Mais nous devons nous demander si ce service est si essentiel qu’il doive être accessible à tous.

Il est facile d’oublier qu’il y a 15 ans à peine, le courrier électronique était aussi fragmenté que les réseaux sociaux aujourd’hui, avec des centaines de systèmes de messagerie incompatibles raccordés par des passerelles fragiles et encombrées. L’un de ces systèmes — internet RFC 822 e-mail – est devenu l’étalon-or des échanges.

Nous nous attendons à voir la même standardisation advenir dans les services internet et les sous-systèmes essentiels. Les concurrents qui pensent que « le gagnant ramasse la mise » seraient bien avisés de s’unir pour faciliter la création de systèmes construits à partir des meilleurs sous-systèmes issus d’entreprises en coopération.

Comment le Web apprend : sens explicite contre sens implicite

Mais comment le Web apprend-il ? Certaines personnes imaginent que, pour que les programmes informatiques comprennent et réagissent au sens, la signification doit être codée dans une taxonomie particulière. Or, ce que nous voyons en pratique, c’est que la signification s’apprend « par déduction » à partir d’un corpus de données.

La reconnaissance vocale et la vision par ordinateur fournissent deux excellents exemples de ce type d’apprentissage par les machines. Mais il est important de se rendre compte que les techniques d’apprentissage des machines ne s’appliquent pas qu’aux données issues de capteurs. Par exemple, le système de vente aux enchères de publicités de Google est un système d’apprentissage qui optimise en temps réel le placement et les tarifs à partir d’algorithmes d’apprentissage.

Dans d’autres cas, le sens est « enseigné » a l’ordinateur. Ainsi, on indique à l’application les correspondances entre un ensemble de données structurées et un autre. Par exemple, l’association entre adresses et coordonnées GPS est « enseignée » plutôt qu’apprise. Les deux séries de données sont structurées, mais ont besoin d’une passerelle pour se relier.

Il est également possible de donner une structure à des données qui paraissent non structurées en enseignant à une application comment reconnaître le lien entre des données. Par exemple, You R Here, une application iPhone, combine parfaitement ces deux approches. Vous utilisez l’appareil photo de votre iPhone pour photographier une carte contenant des détails que l’on ne trouve pas sur les applications cartographiques généralistes telles que Google Maps – comme la carte d’un sentier dans un parc naturel, ou toute autre carte de randonnée. Vous utilisez le GPS du téléphone pour définir votre position actuelle sur la carte. Vous marchez à une distance de là, et fixez un second point. Maintenant votre iPhone est capable de suivre votre position sur cette image de carte personnalisée aussi facilement que sur Google Maps.

Les services web les plus essentiels et les plus utiles ont été construits de cette façon : en reconnaissant des schémas d’organisation dans des ensembles de données non structurées a priori, puis en enseignant ces schémas à l’ordinateur.

Ti Kan, Steve Scherf et Graham Toal, les créateurs de CDDB, ont compris que l’enchaînement des durées des pistes d’un CD forme une signature unique qui peut être associée à un nom d’artiste, d’album et de chanson. Larry Page et Sergey Brin se sont rendu compte que chaque lien est un vote. Marc Hedlund de Wesabe a réalisé que chaque utilisation d’une carte de crédit est également un vote, qu’il y a un sens caché dans les visites répétées au même commerçant. Mark Zuckerberg de Facebook s’est aperçu que les relations amicales en ligne composent un réseau social généralisé. Ils ont tous transformé des données qui, de prime abord, ne semblaient pas structurées, en données structurées. Et tous ont utilisé à la fois des machines et des humains pour le faire.

Notion clé : Une compétence primordiale de l’ère du Web 2.0 repose sur la découverte de métadonnées implicites, puis la construction d’une base de données pour capter ces métadonnées et/ou promouvoir un écosystème autour de celles-ci.

Quand le Web rencontre le monde : « l’ombre informationnelle » et « l’internet des objets »

Dites « applications basées sur des capteurs », et de nombreuses personnes imaginent un monde d’applications fondées sur des étiquettes RFID ou des modules ZigBee. Ce futur est commodément lointain, avec des déploiements expérimentaux et quelques applications excitantes en gestation. Mais beaucoup de gens omettent de remarquer que la révolution des capteurs est déjà bien avancée. C’est la face cachée du marché des mobiles, et son opportunité la plus détonante.

Aujourd’hui, les smartphones contiennent des microphones, des appareils photo, des détecteurs de mouvement, des capteurs de proximité et des capteurs de position (GPS, triangulation cellulaire, et même, dans certains cas, une boussole). Ces capteurs ont révolutionné l’interface utilisateur des applications — vous n’avez qu’à jouer avec l’Ocarina de Smule pour l’iPhone pour le constater.

Mais souvenez-vous : les applications mobiles sont des applications connectées. Les enseignements essentiels du Web 2.0 s’appliquent à toutes les applications réseau, qu’elles s’appuient sur le Web ou sur un téléphone mobile (et la ligne de démarcation entre les deux est de plus en plus floue). Les applications basées sur des capteurs peuvent être conçues pour s’améliorer à mesure que leur nombre d’utilisateurs croît, en collectant des données qui, par une boucle de rétroaction vertueuse, augmentent à leur tour l’utilisation. La reconnaissance vocale dans l’application pour mobile de Google est l’une de ces applications. Les nouvelles applications GPS connectées à l’internet intègrent également des boucles de rétroaction qui calculent votre vitesse et l’utilisent pour estimer votre heure d’arrivée en fonction de ses connaissances de la circulation sur votre chemin. Aujourd’hui, les modèles de circulation sont principalement des estimations, de plus en plus, ils seront évalués en temps réel.

Le Net gagne en intelligence plus vite que vous ne le pensez. Considérez le géomarquage de photos. Au départ, les utilisateurs enseignaient à leurs ordinateurs l’association entre les photos et les lieux en les étiquetant. Dès que les appareils photo ont su se localiser, chaque photo a été géomarquée, avec une précision bien plus grande que celle qu’un humain pourrait donner.

Et l’augmentation de la précision dans un ensemble de données augmente le potentiel d’un autre ensemble. Prenez la précision de ces cartes générées par des photos géomarquées de Flickr :


Quelle sera la précision de ces cartes lorsqu’elles s’appuieront sur des milliards de photos ?

Mais les connaissances que produiront les réseaux de capteurs visuels du net ne se limiteront pas à la localisation.

Bien qu’il en soit encore à ses débuts, le programme de reconnaissance des visages de l’Apple iPhoto ’09 fonctionne plutôt bien. À partir de quel point y a-t-il assez de visages nommés pour que le système soit capable de vous montrer uniquement les gens qu’il ne reconnaît pas ? (Qu’Apple fournisse cette information comme un service de base est une question ouverte, que quelqu’un d’autre le fasse comme un service réseau ne l’est assurément pas).

L’application guide de voyage Wikitude pour Androïd porte la reconnaissance d’image encore plus loin. Pointez la caméra du téléphone vers un monument ou un autre point d’intérêt et l’application compare ce qu’elle voit avec ce dont elle dispose dans sa base de données en ligne (répondant à la question « qu’est-ce qui ressemble à cela à proximité ?). L’écran vous montre ce que voit la caméra, de sorte qu’elle ressemble à une fenêtre, mais intégrant un affichage tête haute comportant des informations additionnelles sur ce que vous observez. C’est la première expérience d’une « réalité augmentée » future. Elle superpose des distances et des points d’intérêts, utilisant la boussole pour suivre l’endroit où vous regardez. Vous pouvez balayer tout autour de vous avec votre téléphone et analyser la zone à la recherche de choses intéressantes à proximité ».

Layar porte cette idée encore un peu plus loin, promettant un cadre pour de multiples couches de contenus de « réalité augmentée » qui seront accessibles par le biais de la caméra de votre téléphone mobile.

Pensez les applications basées sur des capteurs comme si elles vous conféraient des superpouvoirs. Darkslide vous donne une super vue, vous montrant des photos proches de vous. L’application Twitter pour iPhone peut « trouver des tweets récents proches de vous », elle vous donne une super audition et saisit les conversations qui se déroulent autour de vous.

Photosynth, la photographie en ultra haute définition et les images infinies

L’augmentation respective de la richesse des données de capteurs et de l’apprentissage par les machines repousse les frontières de l’expression créative et de la reconstruction ingénieuse du monde.

Photosynth de Microsoft démontre que l’ordinateur peut synthétiser des images en 3D à partir de photographies crowdsourcées. La photographie en ultra haute définition révèle des détails qui sont invisibles, même pour les gens sur place. Infinite Images d’Adobe révèle quelque chose d’encore plus surprenant : la capacité de l’ordinateur à synthétiser des mondes imaginaires qui n’ont jamais existé, extrapolant une simulation 3D complète à partir d’une série de photos. Il faut voir la vidéo de démonstration pour la croire.

Toutes ces percées sont le reflet du fait, noté par Mike Kuniavsky de ThingM, que les objets du monde réel projettent « des ombres informationnelles » dans le cyberspace. Par exemple, un livre à une ombre d’information sur Amazon, Google Recherche de livres, Goodreads, Shelfari et LibraryThing, sur eBay et BookMooch, sur Twitter et sur un millier de blogs.

Une chanson a une ombre d’information sur iTunes, Amazon, Rhapsody, MySpace ou Facebook. Une personne a une ombre d’information dans une foule d’e-mails, de messages instantanés, d’appels téléphoniques, de tweets, de billets de blogs, de photographies, de vidéos ou de documents officiels. Un produit sur une étagère de supermarché, une voiture dans le parking d’un concessionnaire, une palette de bore nouvellement extrait reposant sur un quai de chargement, une vitrine dans la rue principale d’une petite ville – tous possèdent désormais une ombre informationnelle.

Dans de nombreux cas, ces ombres d’information sont liées avec leur alter ego du monde réel par des identifiants uniques : un numéro ISBN ou ASIN, un numéro de pièce, ou, plus proche des individus, un numéro de sécurité sociale, un numéro d’immatriculation de véhicule ou un numéro de série. D’autres identifiants sont plus souples, mais l’identité peut également être triangulée : un nom accompagné d’une adresse ou d’un numéro de téléphone, un nom et une photo, un appel téléphonique depuis une localisation particulière qui ébranle ce qui aurait pu être autrefois un alibi en béton.

Beaucoup de ceux qui parlent de « l’internet des objets » présument que la combinaison d’étiquettes RFID très bon marché et d’adresses IP pour les objets du quotidien va nous y conduire. L’hypothèse repose sur l’idée que chaque objet doit avoir un identifiant unique pour que « l’internet des objets » fonctionne.

Ce que nous dit la sensibilité Web 2.0 c’est que nous parviendrons à l’internet des objets par le biais d’un fatras de données de capteurs qui contribueront, du bas vers le haut, à des applications d’apprentissage des machines, qui, progressivement, comprendront de mieux en mieux les données qui leur seront confiées. Une bouteille de vin au rayon de votre supermarché (ou tout autre objet) n’a pas besoin d’avoir une étiquette RFID pour rejoindre « l’internet des objets », il suffit simplement que vous preniez en photo son étiquette. Votre téléphone mobile, la reconnaissance d’image, la recherche et le web sensitif feront le reste. Nous n’avons pas à attendre que chaque objet dans un supermarché ait un identifiant unique et lisible par une machine. Au lieu de cela, nous pouvons nous contenter de codes-barres, d’informations ajoutées à des photos, et d’autres bidouillages qui ne sont rien d’autre que des moyens d’extraire par la force de l’identité à partir de la réalité.

Dans son travail sur la détermination de l’identité, Jeff Jonas isole un fait fascinant. Jonas construisait une base de données d’Américains, tels qu’ils étaient connus par diverses sources. Sa base de données a augmenté jusqu’à contenir environ 630 millions « d’identités » avant que le système ne dispose de suffisamment d’informations pour identifier toutes les variantes. Mais à un certain point, sa base de données a commencé à apprendre, puis à se réduire. Chaque nouveau chargement de données rendait la base de données plus petite, et non plus grosse. 630 millions plus 30 millions devenaient 600 millions, car le subtil calcul de reconnaissance par « accumulation de contexte » exerçait sa magie.

A mesure que l’ombre d’information devient plus épaisse, plus substantielle, le besoin de métadonnées explicites diminue. Nos appareils photos, nos microphones sont en train de devenir les yeux et les oreilles du Web, nos détecteurs de mouvement et capteurs de proximité sa proprioception, le GPS son sens de la localisation. Le bébé grandit. Nous rencontrons l’internet, et c’est nous.

Capteurs et programmes de surveillance n’agissent pas seuls, mais en concerts avec leurs partenaires humains. Nous enseignons à notre programme photo à reconnaître les visages qui sont importants pour nous, nous partageons des nouvelles qui ont de l’importance, nous ajoutons des étiquettes à nos tweets afin qu’ils puissent être regroupés plus facilement. En ajoutant de la valeur pour nous-mêmes, nous ajoutons également de la valeur au web social. Nos dispositifs nous prolongent/augmentent et nous les prolongeons/augmentons.

Ce phénomène ne se limite pas au web grand public. « L’initiative pour une planète plus intelligente » (Smarter Planet Initiative) d’IBM et le projet de « peau planétaire » (planetary skin) de la NASA et Cisco, montrent toutes deux, combien l’économie sera transformée par le web des capteurs. Les raffineries de pétrole, les aciéries, les usines et les chaînes d’approvisionnement sont en train de s’instrumenter à l’aide de capteurs et des mêmes algorithmes d’apprentissage machines que ceux que nous voyons dans les applications web.

Mais comme c’est souvent le cas, l’avenir n’est pas plus clair dans le discours des grandes entreprises que dans les savantes optimisations des adopteurs précoces et autres « alpha geeks ». Nat Torkington l’un des blogueurs du Radar [d’O’Reilly] raconte l’histoire d’un chauffeur de taxi qu’il a rencontré à Wellington en Nouvelle-Zélande, qui a conservé les logs de six semaines d’activité (GPS, météo, passagers et trois autres variables), en a alimenté son ordinateur, et a produit des analyses pour savoir où il doit être à tout moment dans la journée afin de maximiser ses recettes. Au final, il vit bien mieux et travaille moins que les autres chauffeurs de taxi. Instrumenter le monde paie.

L’analyse des données, leur visualisation et l’usage d’autres techniques pour identifier des modèles dans les données deviendront des compétences de plus en plus précieuses. Les employeurs devraient en prendre note.

Cela ne veut pas dire que des identifiants uniques d’objets ne joueront pas un très grand rôle, surtout pour des objets fongibles qui appartiennent à des catégories bien connues (comme un livre ou une collection de musique). Mais les faits suggèrent que les systèmes formels qui ajoutent à priori du sens aux données numériques sont en réalité moins puissants que les systèmes informels qui extraient du sens des données en observant leurs caractéristiques. Un ISBN fournit un identifiant unique pour le livre, mais un titre et un auteur vous en approchent tout autant.

On verra émerger des projets qui se fixeront pour objectif de catégoriser systématiquement les données brutes issues de capteurs, sur le modèle d’Astrometry, dont les fondateurs déclarent « Nous construisons un « moteur d’astrométrie » pour créer des métadonnées astronométriques correctes et conformes aux normes qui s’appliqueront à toutes les images astronomiques jamais capturées, dans le passé ou à l’avenir, quel que soit l’état de son archivage. » En utilisant ce moteur, le robot astroétiquetteur se balade sur Flickr pour chercher des images d’objets astronomiques et leurs donner de bonnes métadonnées, ce qui leur permet ensuite d’être incluses dans une recherche d’images astronomiques. Il s’agit d’un service analogue à CDDB : un service de recherche qui cartographie les données en désordre pour en faire une base de données organisée permettant des recherches.

Comme c’est souvent le cas, les premiers exemples sont souvent l’œuvre de passionnés. Mais ils annoncent un monde dans lequel les entrepreneurs appliqueront les mêmes principes à de nouvelles opportunités d’affaires. Plus notre monde sera activé par les capteurs, plus il y aura de surprenantes révélations dans la façon, dont beaucoup de sens – et de valeur -, pourront être extraits de leurs flux de données.

Pensez à ce que l’on appelle « le réseau électrique intelligent ». Gavin Starks, le fondateur d’AMEE, un service web neutre pour des données de capteurs liées à l’énergie, notait que les chercheurs qui ratissaient les données de compteurs intelligents de plus d’1,2 million de foyers au Royaume-Uni avaient déjà découvert que chaque appareil possédait une signature énergétique unique. Il est possible alors de déterminer non seulement la puissance tirée par l’appareil, mais également la marque et le modèle de chacun des appareils électro-ménagers du foyer – une sorte de CDDB pour les appareils électroménagers et électroniques !

Cartographier des données non structurées pour les transformer en ensembles de données structurées sera l’une des compétences-clé du web à la puissance deux.

L’essor du temps réel : un cerveau collectif

En étant de plus en plus conversationnelle, la recherche est aussi devenue plus rapide. Le blogging a ajouté des dizaines de millions de sites à indexer chaque jour et même chaque heure, mais le microblogging nécessite une mise à jour instantanée – impliquant un changement profond à la fois dans l’infrastructure et dans la méthode. Quiconque recherchant un sujet populaire sur Twitter est confronté au message suivant « Voyez ce qu’il se passe maintenant », suivi, quelques instants plus tard par « 42 résultats supplémentaires depuis que vous avez débuté la recherche. Actualisez la page pour les consulter. »

En outre, les utilisateurs continuent de co-évoluer avec nos systèmes de recherche. Prenez les hashtags sur Twitter : une convention humaine qui facilite les recherches en temps réel à propos d’événements partagés. Une fois de plus, voyez comme la participation humaine ajoute une couche structurante — aussi sommaire et incohérente soit-elle – au flux de données brut.

La recherche en temps réel encourage la réponse en temps réel. Les « cascades d’informations » retweetées propagent les flashs d’information à travers tout Twitter en un instant, ce qui en fait la première source de prise de connaissance de l’actualité pour de nombreuses personnes. Une fois encore, tout ceci n’est que le commencement. Avec des services comme les mises à jour de statut de Facebook et Twitter, une nouvelle source de données a été ajoutée au Web – des indications en temps réel de ce qui existe dans notre esprit collectif.

Le Guatemela et l’Iran ont tous deux ressenti l’effet Twitter, les protestations politiques ayant été lancées et coordonnées sur Twitter.

Ce qui nous amène à un débat opportun : nombreux sont ceux qui s’inquiètent de l’effet déshumanisant de la technologie. Nous partageons cette inquiétude, mais nous voyons aussi la contre-tendance, au travers de laquelle la communication nous unit, nous donne un contexte commun et, finalement, une identité commune.

Twitter nous apprend aussi une chose importante sur la manière d’adapter les applications aux appareils. Les Tweets sont limités à 140 caractères, et ces mêmes limites ont conduit à une profusion d’innovations. Les utilisateurs de Twitter ont développé une sténographie (@nomdutilisateur, #hashtag, $cotation), que les logiciels clients Twitter ont bientôt converti en liens cliquables. Les « raccourcisseurs » d’URL pour les liens web traditionnels sont devenus populaires, et leurs opérateurs se sont vite rendu compte que la base de données des liens cliqués permet de nouvelles analyses en temps réel. Bit.ly, par exemple, présente en temps réel le nombre de clics que vos liens suscitent.

Par conséquent, une nouvelle couche d’informations est en cours de construction autour de Twitter, une couche qui pourrait croître jusqu’à rivaliser avec les services devenus le cœur du web : la recherche, l’analyse, et les réseaux sociaux. Twitter démontre aussi aux opérateurs de téléphonie mobile ce qu’il peut se passer lorsque vous fournissez des API. Les leçons tirées de l’écosystème d’applications de Twitter pourraient, soit indiquer les prochaines opportunités pour les SMS et autres services mobiles, soit produire ce qui les remplacera.

Le temps réel ne se limite pas aux médias sociaux et mobiles. De même que Google s’est aperçu qu’un lien est un vote, Wal-Mart s’est rendu compte qu’un client qui achète un article vote, et que la caisse enregistreuse est un capteur chargé de comptabiliser ce vote. Les boucles de rétroaction en temps réel supervisent les stocks. WalMart n’est peut-être pas une société Web 2.0, mais elle est sans aucun doute une entreprise Web à la puissance deux : une entreprise dont les opérations sont tellement imprégnées par l’informatique, si fondamentalement dirigées par les données de leurs clients, que cela lui confère un avantage concurrentiel immense. L’une des grandes opportunités que crée le Web puissance deux est de permettre aux petits détaillants qui ne peuvent pas s’appuyer sur une chaîne d’approvisionnement monolithique d’accéder à cette capacité d’analyse en temps réel.

Comme l’a expliqué avec tant d’éloquence Vivek Ranadive, fondateur et PDG de Tibco, dans son récent portrait par Malcolm Gladwell du New Yorker :

« Tout dans le monde fonctionne maintenant en temps réel. Donc, quand un certain type de chaussure ne se vend pas dans votre boutique, il ne se passe pas six mois avant que le type en Chine le découvre. C’est presque instantané, grâce à mon logiciel. »

Même sans achats dirigés par capteurs, l’information en temps réel à déjà un impact énorme sur les affaires. Lorsque vos clients déclarent leurs intentions partout sur le Web (et sur Twitter) – en acte ou en paroles – les entreprises doivent à la fois écouter et se joindre à la conversation. Comcast a transformé son approche de service à la clientèle en utilisant Twitter ; d’autres entreprises en font autant.

L’autre histoire frappante dont nous avons récemment entendu parler concerne une boucle de rétroaction en temps réel : le système Houdini utilisé par la campagne Obama pour retirer les électeurs de la liste d’appel « Get Out the Vote » dès qu’ils ont effectivement voté. Dans les districts majeurs, des observateurs de l’élection signalaient quels électeurs inscrits venaient d’émarger, afin de les faire « disparaître » des listes d’appel fournies aux bénévoles (d’où le nom Houdini).

Houdini est le Mechanical Turk d’Amazon en plus visible : un groupe de bénévoles sert de capteurs, de nombreuses files d’attente de données en temps réel sont synchronisées, puis sont utilisées pour agir sur les instructions d’un autre groupe de bénévoles servant eux d’actionneurs de ce même système.

Les entreprises doivent apprendre à exploiter des données temps réel comme des signaux essentiels qui alimentent une boucle de rétroaction beaucoup plus efficace pour le développement de produits, le service à la clientèle, et l’allocation des ressources.

En conclusion : ce qui compte

Tout ceci est, à bien des égards, un préambule à ce qui pourrait constituer la partie la plus importante de l’opportunité constituée par le web puissance 2.

La nouvelle orientation du web, en voie de collision avec le monde physique, ouvre d’immenses possibilités pour les entreprises, ainsi que pour traiter les problèmes majeurs de notre monde.

Des centaines d’exemples démontrent que cela se passe déjà, sous nos yeux. Mais il y a beaucoup d’autres secteurs pour lesquels des progrès sont nécessaires, que cela concerne notre écosystème énergétique ou notre approche des systèmes de santé, sans oublier notre système financier, qui est en plein désarroi.

Même dans un environnement favorable à la régulation, les gouvernements sont désespérément surclassés par les systèmes financiers qui fonctionnent en temps réel. Qu’avons-nous appris de l’Internet grand public qui pourrait devenir la base d’un nouveau système de réglementation financière du XXIe siècle ? Nous avons besoin d’appliquer les apprentissages par la machine à la finance : des algorithmes pour détecter les anomalies, la transparence qui autorise un contrôle par toute personne se sentant concernée, et pas seulement par des régulateurs sous-dimensionnés et surchargés.

Quand nous avons lancé les rencontres « Web 2.0 », nous affirmions que « le Web est une plateforme ». Depuis, des milliers d’entreprises et des millions de vies ont été changés par les produits et services reposant sur cette plateforme. Mais 2009 marque un tournant dans l’histoire du Web. Il est temps de tirer parti de la véritable puissance de la plateforme que nous avons construite. Le Web n’est plus une industrie en soi, le Web est dorénavant le monde lui-même.

Et le monde a besoin de notre aide.

Pour résoudre les problèmes les plus saillants du monde, nous devons mettre la puissance de l’Internet au travail – ses technologies, ses modèles d’affaires, et peut-être, plus important encore, sa philosophie d’ouverture, son intelligence collective et sa transparence. Et pour ce faire, nous devons amener le Web à changer d’échelle. Nous ne pouvons pas nous permettre une évolution arithmétique.

Il est temps pour le Web de se colleter au monde réel. Le Web rencontre le monde – c’est le Web à la puissance deux.

Tim O’Reilly et John Battelle
Traduction Marin Dacos, Hubert Guillaud, Daniel Kaplan et Robert-André Mauchin.

Appel à exemples !

Dans le cadre de ce document et de notre travail sur le programme du Sommet du Web 2.0, nous aimerions votre avis. Nous cherchons à créer une liste d’applications, services et projets qui reflètent le thème du Web à la puissance deux.

Quelques exemples :

– L’élection de Barack Obama a démontré comment l’internet peut-être utilisé pour transformer la politique. Maintenant, son administration s’est engagée à explorer comment la technologie pourrait transformer concrètement la manière d’administrer et de gouverner.
Le gouvernement fédéral américain a pris un important engagement envers la transparence et l’ouverture des données. Data.gov héberge désormais plus de 100 000 flux de données en provenance de sources gouvernementales américaines, et le blog de la Maison Blanche d’afficher son engament en faveur des 8 principes pour des données publiques ouvertes (NDT : voir la traduction de ses principes) imaginées par un groupe d’activistes fin 2007. Célébrons les succès de ce que beaucoup appellent désormais « Gouvernement 2.0 ». Nous aimerions entendre parler des succès du Gouvernement 2.0 partout dans le monde.

Pourtant, en exprimant son avis sur l’orientation du Sommet sur le Gouvernement 2.0, le responsable fédéral américain de la technologie Aneesh Chopra nous a exhorté à ne pas nous concentrer sur les succès du Web 2.0 dans l’administration, mais plutôt sur les problèmes non résolus. Comment la communauté technologique peut-elle aider à résoudre des problèmes tels que la mesure des emplois créés grâce au plan de relance économique ? Comment peut-elle accélérer nos progrès vers l’indépendance énergétique et la réduction d’émissions de CO2 ? Comment peut-elle nous aider à refonder notre système éducatif pour produire une main-d’oeuvre plus compétitive ? Comment peut-elle nous aider à réduire le gonflement des coûts du système de santé ?

– Twitter est utilisé pour rapporter les nouvelles de catastrophes, et pour coordonner les interventions d’urgence. Des initiatives comme InSTEDD (Support innovant pour les urgences, les maladies et les catastrophes) s’appuient sur cette tendance pour l’amplifier. InSTEDD utilise des techniques de l’intelligence collective pour fouiller des sources comme des messages SMS (par exemple Geochat), des flux RSS, des listes de diffusion (par exemple ProMed, Veratect, HealthMap, Biocaster, EpiSpider), OpenROSA, Map Sync, Epi Info, des documents, des pages web, des dossiers médicaux électroniques (par exemple OpenMRS), des données sur les maladies animales (par exemple OIE, AVRI hotline), des flux environnementaux (par exemple le système de télédétection de la NASA, etc.) , le tout afin de recueillir des signaux sur les maladies émergentes. L’initiative globale pour la prévision des virus (GVFI) recueille désormais délibérément des données (dans ce cas, sur les maladies émergentes passant de l’animal à l’homme) qui peuvent être introduites dans ce système mondial d’alerte précoce.

– Notre système de soins chancèle. Il y a peu de corrélation entre les dépenses et les résultats. Comme Atul Gawande l’a écrit dans le New Yorker :
« Les dirigeants locaux d’hôpitaux, de cliniques et d’agences de santé comprennent leurs taux de croissance et leurs parts de marché. Ils savent quand ils perdent ou gagnent de l’argent. Ils savent que si leurs médecins apportent suffisamment d’affaires – chirurgie, imagerie médicale, soins infirmiers à domicile -, ils feront de l’argent. Et s’ils obtiennent que les médecins en rapportent plus, ils en feront plus encore. Mais ils ne savent pas vraiment si les médecins font en sorte que leurs communautés de patients soient en aussi bonne santé que possible, ou s’ils sont plus ou moins efficaces que leurs homologues venant d’ailleurs. »
En bref, nous mesurons les mauvais indicateurs. Comment pouvons-nous appliquer les leçons du web 2.0 pour mesurer ce qui compte vraiment au sein du système de santé ?

– Des entreprises comme 23andMe ou PatientsLikeMe appliquent le crowdsourcing pour construire des bases de données destinées aux communautés de médecine personnalisée. 23andMe fournit des tests génétiques à des fins personnelles, mais son objectif à long terme est de fournir une base de données d’informations génétiques que les usagers pourront volontairement mettre à disposition des chercheurs. PatientsLikeMe a créé un réseau social pour des gens atteints de diverses maladies chroniques, qui transforment leur vie. En partageant les détails de leurs traitements – ce qui marche et ne marche pas – ils fournissent la base médicale la plus large du monde pour les résultats d’essais. Quelles autres applications créatives des technologies Web 2.0 voyez vous faire avancer l’état du système de soin ?

– Comment pouvons-nous créer des opportunités économiques en réduisant le coût des soins de santé ? Comme l’écrit Abraham Verghesewrites de Stanford, la raison pour laquelle il est si difficile de réduire les coûts des soins de santé est qu' »un dollar dépensé en soins médicaux est un dollar de revenu pour quelqu’un ». Nous ne pouvons pas simplement couper les coûts. Nous devons trouver des façons de faire de l’argent en réduisant les coûts. À cet égard, nous nous intéressons à des startups comme CVsim, une société de simulation cardio-vasculaire. A partir de données de scans CAT toujours plus précis, couplés avec un logiciel de simulation d’écoulement du sang fonctionnant sur une plateforme hébergée, il est concevable d’améliorer les résultats sanitaires et de réduire les coûts tandis qu’on économise plusieurs milliards de dollars sur le marché de l’angiographie, qui reste une procédure médicale coûteuse et risquée. Si CVsim parvient à cet objectif, ils bâtiront une gigantesque entreprise tout en réduisant la dépense nationale de santé. Quelles autres possibilités la technologie propose-t-elle pour remplacer les anciennes procédures médicales moins efficaces par de nouvelles, potentiellement plus efficaces tout en coûtant moins cher ?

– Dans le cadre du plan de relance financière, le gouvernement dépense 5 milliards de dollars en subventions à l’isolement des bâtiments. Comment les technologies du Web 2.0 pourraient-elles nous dire si le programme atteint ses objectifs de création d’emploi et de réduction de la consommation d’énergie ?

– Les sociétés adoptent des outils de surveillance et de gestion en temps réel pour construire des chaînes d’approvisionnement intelligentes, gérer les ressources distantes, et en général, améliorer leurs retours sur investissement en utilisant ce que Doug Standley et Deloitte appellent « le capital intelligence ». Nous aimerions entendre des exemples de personnes qui déploient ces technologies.

– Des systèmes de surveillance du trafic en temps réel comme ClearFlow de Microsoft réduisent les pertes de temps et d’énergie liées aux déplacements quotidiens. Les services web suivent la progression des bus et trains par rapport à leurs horaires d’arrivée prévus, afin de rendre le transport public plus efficace et agréable. Ce sont des avantages tangibles que tirent les consommateurs de l’instrumentation du monde. Des tarifications urbaines dynamiques fondées sur les informations de capteurs de trafic, comme celle qu’à construit IBM pour la ville de Stockholm, créé des incitations économiques pour réduire le trafic aux heures de pointe. Des initiatives soulèvent également des questions de confidentialité. Nous sommes intéressés à entendre des histoires de réussites – et des histoires effrayantes – sur la façon dont l’instrumentation du monde change notre manière de vivre.

– Les initiatives de réseaux de distribution d’électricité « intelligents » (Smart Grids) permettront de réduire notre consommation d’énergie en augmentant l’intelligence du système utilisé pour la délivrer. Comme nous le suggérions plus haut, cela va ouvrir un nouveau front dans la guerre de l’intimité. Les données qui seront révélées par ces applications ne vont pas seulement rendre nos appareilsélectroménagers plus intelligents, elles rendront également les marketeurs plus intelligents. Il est peu probable cependant que cela les rende plus humains et moins indiscrets !

____________
1. Pas facile de trouver une traduction adéquat à ce Web Squared. Le web carré ? Le web au carré ? Le carré web ? Le web à la puissance 2 ? Le Web factorisé ou le Web factoriel ? En opposant le web incrémental au Web Squared, O’Reilly et Battelle donnent peut-être une solution. Peut-être faut-il plutôt parler de Web géométrique (par rapport à un Web dont la progression serait arithmétique) ou plus encore de « Web exponentiel », qui nous semble le mieux à même de donner de la profondeur à l’expression imaginée par les auteurs anglo-saxons. Mais nous avons retenu le Web à la puissance deux qui nous a paru plus littéral.

À lire aussi sur internetactu.net

0 commentaires

  1. Le web 2 se serait-il pas une version bêta permanente?
    Si l’on appelle les évolutions du web 2, le « web au carré » comme le proposent à présent O’Reilly et Battelle, le web 3 ou web sémantique ne va-t-il pas devenir caduque? Pour ce qui concerne les données elles sont déjà incluses dans la triple définition du web 2 donnée par Fayon dans son livre ‘web 2.0 et au delà’, à savoir une dimension technique, une dimension sociale et une dimensiuon relative aux données collectées et qui sont dépendantes de l’application considérée.

  2. Ca c’est de l’article ! Bien complet en tout cas.

    Le web 2.0 est effectivement axé sur la prise de pouvoir par l’utilisateur et sur le côté intéractif alors que le web 3.0 est axé sur le web sémantique, la recherche universelle et le rich média.

    Nous passons donc d’un web de liens à un web objet.

  3. Wow superbe article, je vais devoir le relire. Nous avions très modestement lancé la réflexion – histoire de commencer prudemment quelque part et de voir si cela allait motiver une audience avant d’aller plus loin – à se prêter à un petit exercice de prospective pour TechToc – via une table ronde sur le salon OnLine : http://techtoc.tv/event/149/quel-sera-le-web-de-demain–online-2009

    Je serais très heureux de vous inviter pour approfondir sur ce thème en plateau TV et vous accompagner aussi dans votre propre événement si vous n’avez pas déjà de partenaire vidéo. Ce qui est bon à savoir c’est que la plupart des gens présents dans la salle ont été convié à venir via la plateforme TechToc.tv donc nous sommes aussi un bon moyen additionnel de vous faire venir du monde ! Bon courage en tout cas pour la suite,
    FB

  4. Excellent article, très complet comme toujours.
    Seule la référence à Fred Cavazza que je ne considère pas comme une véritable source d’information entâche un peu le début.

  5. Merci de proposer une version française de cet excellent article. La standardisation est encore en trame de fond et ce point n’a jamais été autant d’actualités. Il est illusoire de s’imaginer développer toute une gamme de services sur Internet si on en propose pas un écosystème apte (« Les concurrents qui pensent que « le gagnant ramasse la mise » seraient bien avisés de s’unir pour faciliter la création de systèmes construits à partir des meilleurs sous-systèmes issus d’entreprises en coopération. »). Il y a encore du boulot.
    Personnellement j’ai bien parler de « web itératif », ok cela regroupe peut-être pas toute la problématique 😉

  6. merci pour la trad…on aurait pu ajouter Friendfeed qui a ses fans et ses détracteurs, mais qui à partir des twitter permet d’utliser plus des 140s sans aller vrimanet au delà des 300.
    En ce qui concerne l’intelligence collective, on se heurte aussi à des notions qui doivent être réinterprétées comme la concurrence, par ex. Les blogs en particulier on fait surgir des montées en puissance d’ego de la part de leurs auteurs (pas tous, heureusement) qui viennent fausser les partages possibles. Et pas seulement dans des domaines traditionnellement narcissiques comme la culture.

  7. Bravo pour cet article majeur qui prend une autre dimension en français et « augmenté » par Internet Actu. (bravo Hubert)

    La synthèse d’O’reilly est expresive.

    Le web se transforme de média en une gigantesque application. Internet devient un système applicatif multi-modale de communication ( les humains et les machines dialoguent indifféremment par toutes sorte de chemin). Cet article fait échos et synthetise les notion de: Web de donnée (Web of Data), terminaux ou NeoObjets que nous allons mettre au bout (interface), connecter, capter et manipuler (objets en réseaux, internet des objets). Le graphisme devient fonctionnelle au service des données et de l’information (information design, data visualisation).

    Il nous faut concevoir la vision humaine de tout cela. « les humains sont les capteurs et les actionneurs »

  8. Diriez-vous que MobileMe, le service de cloud computing pour tous d’Apple, est un exemple de Web² ? Il me semble en tout cas que ce n’est ni du Web 1.0 ni du Web 2.0. Qu’en-dites-vous ?