Entretiens du Nouveau Monde industriel : Ouvertures ou libertés ?

A l’occasion des Entretiens du Nouveau Monde industriel consacrés aux nouveaux objets communicants, qui se tenaient la semaine dernière au Centre national des arts et métiers, retour sur quelques présentations parmi celles qui nous ont semblé les plus marquantes de ces deux jours.

Le système des objets fait-il peser une menace sur l’internet ?

« L’internet est un système technique », rappelle Christian Fauré (blog), architecte principal chez Cap Gémini et coauteur avec Bernard Stiegler et Alain Giffard de Pour en finir avec la mécroissance. « Quand un nouveau système technique se stabilise, arrive à une certaine maturité, il provoque des désajustements sociologiques, économiques et politiques avec l’ancien système technique. » L’internet est un système technique, ouvert, social, libre et associé. Les machines peuvent communiquer entre elles sans se connaître, sans autorisation…

L’enjeu auquel nous faisons face, explique Christian Fauré, c’est le choix du réajustement. Soit il va se faire au détriment de ce qu’a apporté l’internet (son caractère ouvert, libre et associé) soit il va en tirer parti. L’internet alors est soit un bouc-émissaire, soit un poison, soit un remède… comme l’évoquent les 3 figures du pharmakon qu’évoque Bernard Stiegler dans son oeuvre.

« Quelles peuvent être les menaces à l’encontre de ce qu’a apporté l’internet ? » Elles sont de plusieurs types, rappelle l’entrepreneur : politique tout d’abord. Cette menace par le haut s’incarne notamment par l’indifférence et l’incurie de la puissance publique, peu porté sur les questions d’internet. Le monde politique croit en la fable de l’immatériel et de la connexion à très haut débit et se fait l’écho d’industries qui ont un modèle dissocié, fermé et propriétaire. Une autre menace, par le bas, provient des opérateurs de télécommunication et fait peser un risque sur la neutralité d’internet qui permet pourtant que tout le monde accède au même service, à la même information. La stratégie marketing des opérateurs est de briser le principe même de l’internet, assène Christian Fauré. La troisième menace est une menace interne : celle du Cloud Computing imaginé par les industriels de l’internet qui tend à faire disparaître les modèles d’affaires existants au profit de schémas dissociés : toutes les contributions ne seront plus possibles, et les passerelles entre les systèmes sont contrôlées, comme l’explique Tim O’Reilly dans La Guerre du web.

Dernière menace, la menace externe, celle portée notamment par les systèmes des objets, comme les appelle Christian Fauré. Un système qui est à ce jour protéiforme. L’internet des marchandises, celui qui sert à alimenter les chaînes d’approvisionnement peut difficilement devenir une menace, car il ne concerne que les systèmes d’information des entreprises pour l’essentiel. Par contre, l’internet des nouveaux objets, lui nous impose déjà l’inacceptable : « Qui achèterait un ordinateur qui imposerait un fournisseur d’accès et limiterait les applications auxquelles vous pouvez accédez ? », interroge Christian Fauré en désignant notamment l’iPhone. « En passant de la machine à l’objet, le particulier privilégie (dans un premier temps en tout cas, peut-être que cela va être appelé à changer) les usages au détriment des pratiques » Marketés comme des objets transitionnels qu’évoquait Bernard Stiegler, on est prêt à accepter beaucoup de ces nouveaux objets, ces devices dont il ne nous aura pas échappé que tous les acteurs majeurs du Cloud Computing proposent une interface (le Kindle d’Amazon, les systèmes d’exploitation Androïd et Chrome de Google, l’iPhone d’Apple…). Ces objets qui déportent leur mémoire dans les nuages font peser une très forte menace sur le caractère ouvert de l’internet.

On le voit, au travers des différents ajustements possibles, rien n’est encore tracé, estime Christian Fauré. « Il va y avoir encore quelques batailles à mener, pour préserver l’internet ouvert libre et associé. »

Quand le web des données rencontre l’internet des objets

« On ne peut pas parler de l’internet des objets sans parler du web des données », explique Valérie Peugeot, consultante à Sofrecom. Il nous faut repartir du web pour voir comment il interagit avec l’internet des objets.

Le web des données – ce web 3.0, ce web sémantique ou ce web² selon les noms qu’il prend -peut paraître très réducteur par rapport au web 2.0, si massivement relationnel. Pourtant, il n’est qu’une autre manière de regarder tout ce que produit le web dynamique. Dans ce web de données, on trouve à la fois des données statistiques, des indications géographiques, des métadonnées permettant de qualifier les documents, des données personnelles… L’internet des objets va arriver en même temps qu’une nouvelle masse de données, rendue accessible et alimentée grâce aux objets bavards qui composent de plus en plus nos environnements, comme nos téléphones mobiles. Ces objets bavards permettent de partager nos données de géolocalisation comme le propose le service aka-aki, nos parcours de courses à pieds, comme le propose les systèmes de Nokia ou de Nike, voire même de partager une mémoire sonore collective de nos environnements comme le propose le projet Save Our Sounds. Mais nos téléphones ne sont pas les seuls objets bavards qui envahissent nos environnements : ajoutons-y par exemple, le Wattson, qui permet de mesurer et partager nos consommations électriques domestiques et interagir avec d’autres utilisateurs, ou les capteurs qu’on plante dans nos bacs à fleurs pour vérifier l’état des sols et de nos plantes…

A côté des données que nous décidons de partager avec d’autres utilisateurs, il y a aussi des données collectées par les machines sur lesquelles nous n’avons pas nécessairement de contrôle et qui, aujourd’hui, sont produites en silo, mais qui demain pourraient être utilisées ailleurs, à l’image des données produites par nos Pass Navigo, qui ne sont pas exploitées aujourd’hui par d’autres acteurs que la RATP. Ces données répondent à certaines règles : sur le Pass Navigo, les données sont conservées deux jours (une durée que l’on pourrait vouloir discuter) et a priori, à moins que les règles ne changent, ne sont pas exploitées par d’autres acteurs que la RATP. Ces données collectées par nos machines nous interrogent : qui va utiliser nos données issues de nos voitures, seulement le constructeur ou demain nos assureurs ? Qui va utiliser les informations provenant de nos compteurs électriques ? Aujourd’hui ces données sont en silo et n’ont pas vocation à sortir d’une approche industrielle. Mais demain, nous-mêmes ou les industriels qui en sommes en partis détenteurs, pourrions vouloir les utiliser, les mutualiser.

Ces données qui viennent des objets vont venir percuter celles qu’accumule le web, explique Valérie Peugeot avant d’esquisser une typologie des données : données personnelles (nom, âge…), données privées (celles de nos achats par exemple), données publiques (celles produites par les entités publiques) et données de biens communs, c’est-à-dire données que nous choisissons de partager (comme les indications que nous ajoutons à Open Street Map).

Deux débats agitent l’internet autour des questions des données : celui de leur portabilité et celui de leur ouverture.

Pourquoi et comment libérer les données ?

Le débat sur les données ouvertes remonte aux années 90, rappelle Valérie Peugeot. Initié par le milieu scientifique, celui-ci s’est interrogé sur le statut de ce que la science produit et a lancé plusieurs initiatives pour s’opposer à la privatisation de la science et de la connaissance. Ce débat est sorti du monde scientifique et a essaimé pour interroger la libération de l’ensemble des données publiques, produites grâce aux financements des contribuables. Récemment, le gouvernement américain a pris une initiative assez emblématique sur le sujet en lançant data.gov, un site mettant à la disposition du public plus de 600 bases de données produites par les administrations publiques et portant sur une multitude de sujets (criminalité, fiscalité…). L’OPSI britannique a annoncé initier une démarche similaire. En France, les déclarations d’intentions de la secrétaire d’Etat à l’économie numérique vont dans le même sens, mais on ne sait pas encore ce que fera l’APIE.

Pourquoi libérer des données brutes et publiques ? Brutes, le terme est important comme le soulignait Tim Berners Lee l’année dernière à la conférence TED, car il souligne que ces données doivent pouvoir être dans un format exploitable par des machines et des hommes.

Les arguments avancés sont de nourrir le débat démocratique : si on avait accès aux données permettant de comparer les impôts payés par les immigrés et les prestations qu’ils reçoivent on pourrait peut-être faire tomber bien des idées reçues, estime avec conviction Valérie Peugeot. L’autre argument est que les industriels considèrent que ces données sont une base essentielle pour construire de nouveaux services, comme l’a montré le succès de l’ouverture des Google Maps qui a permis de construire de très nombreux services (alors qu’on aurait pu imaginer que les cartes de l’IGN puissent obtenir ce même succès si elles avaient été ouvertes). On ne sait pas si ces usages seront bénéfiques à la société, mais il semble effectivement qu’ils aient un potentiel.

A côté des données publiques, il y a aussi des données de biens communs. Parfois, les utilisateurs choisissent de partager des données, comme c’est le cas du site Patients like me, via lequel des malades partagent des données médicales dans une logique d’entraide, avec une charte d’exploitation qui les protège de la récupération commerciale. Récupération commerciale ? Oui, car c’est bien là le risque qui pèse sur ces données mises en commun. CDDB par exemple a longtemps été un service nourri par les internautes eux-mêmes pour offrir à la communauté des métadonnées sur la musique permettant de retrouver les données musicales de nos chansons numérisées. Mais CDDB n’a pas trouvé de modèle économique et a été racheté par Sony qui en a fait un service baptisé Gracenote enfermé dans des contraintes d’accès multiples : le bien commun créé par les utilisateurs leur a été dérobé. Cet exemple illustre la question de la protection juridique des données de biens communs. Fort heureusement, pour y répondre, on voit émerger des initiatives juridiques spécifiques comme le Science Commons Database Protocol pour les scientifiques (issu de Science Commons et dérivé des licences Creative Commons), mais aussi les solutions développées par OpenDataCommons (notamment l’OpenDatabase Licence et le Public Domain Dedication and Licence).

De la portabilité des données

La portabilité des données consiste à pouvoir accéder et emmagasiner les données que l’on créé sur de multiples services où ‘on veut, quand on veut, comme l’on veut et si l’on veut. Le premier déclencheur de ce débat a été la fatigue des utilisateurs, fatigués de devoir se réenregistrer, de recréer leurs profils et de recommencer à reconstituer leurs relations à chaque service qu’ils étaient invités à utiliser. L’idée a été aussi de simplifier la vie de l’utilisateur à la manière des microformats qui permettent d’incorporer facilement des données dans les siennes. Grâce à la portabilité des données, l’industrie est capable de faire naître de nouveaux services à l’image de Tastonomics qui permet d’agréger différentes plates-formes de services autour de nos goûts culturels (films que l’on regarde depuis NetFlix, livres qu’on lit depuis GoodReads ou qu’on achète via Amazon…) : cela consiste à autoriser le service à aller puiser nos données sur d’autres services auxquels on est abonnés.

Reste que, quand on parle de portabilité des données, tout le monde ne met pas la même chose derrière. Qui dit portabilité, dit standard : il faut une information standardisée pour qu’elle soit portable (et dans ce domaine proposer des données au format Excel n’est pas la même chose que proposer des données au format RDF). Et c’est là d’ailleurs une question commune aux deux grands débats.

La tension entre la liberté et la vie privée

On trouve trois philosophies différentes de la standardisation, synthétise Valérie Peugeot : le standard porté par la communauté (comme les microformats), le standard négocié par l’ensemble des acteurs concernés (comme le RDF proposé par le W3C) et le standard de fait (comme le PDF d’Adobe ou FacebookConnect), c’est-à-dire dont l’usage massif fait office de standard. Le standard de fait peut-être plus ou moins gênant, rappelle Valérie Peugeot. Par exemple, quand on utilise Joost, on peut s’enregistrer avec son identifiant Facebook. Ce que je fais en tant qu’utilisateur sur Joost est alors publié sur mon compte Facebook. Joost répond ainsi à sa nécessité d’élargir sa communauté d’utilisateur très rapidement et Facebook garde ses utilisateurs capteurs, tout en continuant à glaner des données sur leurs comportements.

« On est coeur de l’économie de l’attention qui repose sur la capture des données et comportements des utilisateurs ». Où commencent et où s’arrêtent les données personnelles ? Les données personnelles sont chaque jour plus nombreuses et se croisent toujours un peu plus avec nos données privées. Qu’en sera-t-il des données produites par les objets ? Qui décidera de leur portabilité ? De leur partage ? De leur ouverture ?

« Actuellement, il y a une confusion dans les discours autour des notions de liberté et d’ouverture. La liberté qu’évoquent Tim O’Reilly ou John Battelle et de nombreux autres gourous des nouvelles technologies se destine à qui… et au profit de qui ? » Et Valérie Peugeot de constater une ligne de tension de plus en plus visible entre la liberté et la protection de la vie privée, entre la protection de la vie privée et la construction de biens communs… « La liberté de circulation et d’usage est mise en tension avec la vie privée. Pour remédier à cela, il nous faut penser une architecture technique et politique du web qui permette de dépasser cette tension. Technique, car il faut pouvoir rester interopérable. Politique, car il nous faut des dispositifs juridiques pour redonner une véritable maîtrise à l’utilisateur. »

À lire aussi sur internetactu.net

0 commentaires

  1. Bonjour,
    En matière d’accés aux cartes de l’IGN, il faut tout de même noter que si l’attente est grande à leur égard, c’est bien parce qu’elles sont connues,
    utiles et disponibles sous forme papier dans un très large réseau de points de vente, ce depuis 30 ans déjà.
    Cela dit, la question d’aujourd’hui est bien la mise à disposition de ces cartes sous forme numérique, de préférence sur internet et de manière aussi peu chère que possible.
    Même s’il est vrai que le Géoportail (www.geoportail.fr) n’a montré ces cartes qu’en 2006, c’est maintenant chose faite depuis plus de 3 ans. C’est gratuit et réutilisable par l’API Géoportail, gratuitement hors utilisation trop massive ou directement commerciale.

    Par ailleurs, sur le financement des cartes, il faut savoir que celles-ci ne sont financées que partiellement par la subvention publique, ce qui légitime la démarche de rechercher sur le marché le complément de financement indispensable pour les actualiser. Ce n’est évidemment pas le cas de données produites dans le cadre de recherches publiques subventionnées à 100% dont les résultats sont intégralement publiés et qui profitent à tous, y compris -surtout ?- à ceux qui savent les utiliser dans le cadre d’une stratégie industrielle et commerciale.

    Que dire donc de discussions censées tracer des voies pour l’avenir de l’internet si les constats pris en compte en 2009 datent de trois ans, sont partiellement erronnés ou évacuent l’aspect économique du sujet ? Rien d’autre que d’inviter à échanger encore sur ces sujets.
    Bien cordialement