Le P2P, alternative à la centralisation de nos données ?

François Taïani est professeur à l’Ecole supérieure d’ingénieurs de Rennes et à l’université Rennes I et chercheur à l’Institut de recherche en informatique et systèmes aléatoires et est un spécialiste des systèmes répartis à grande échelle, c’est-à-dire des systèmes P2P. Ce n’est pourtant pas ceux-ci qu’il commence à évoquer sur la scène du colloque consacré à « la politique des données personnelles : Big Data ou contrôle individuel » organisé par l’Institut des systèmes complexes et l’Ecole normale supérieure à Lyon le 21 novembre 2013.

« On estime à quelque deux milliards le nombre d’êtres humains qui participent aux réseaux sociaux sur la planète. Des réseaux éminemment centralisés, dans lesquels nous ne sommes pas maîtres de grand-chose. Le scandale de la NSA comme la multiplication des modifications unilatérales des conditions d’utilisation de ces systèmes – Facebook a récemment décidé d’interdire aux utilisateurs de refuser d’apparaître dans les résultats de recherche – montrent combien cette centralisation est devenue un piège pour l’espionnage de masse », qu’il soit le fait des Etats ou d’entreprises privées comme les Gafa (Google, Apple, Facebook, Amazon…).

La puissance de l’internet industriel

Pour expliquer comment nous sommes tombés dans ce piège, l’informaticien en revient à l’histoire de l’informatique elle-même (voir sa présentation .pdf). Pour permettre aux ordinateurs de discuter entre eux, les programmeurs ont imaginé des serveurs sur lesquels installer programmes et données. C’est la logique clients-serveurs qui a nécessité le déploiement d’une infrastructure très importante pour permettre aux grands services de l’internet de fonctionner, pour permettre de répondre à des milliards de requêtes quotidiennes. Mais cette infrastructure a généré une situation très déséquilibrée. Les Gafa sont désormais à la tête d’une puissance de calcul, de stockage et d’information sans précédent. Tant et si bien qu’il est devenu difficile de créer des solutions alternatives…

L’architecture de Google aujourd’hui, c’est quelque 60 000 requêtes de recherche par seconde, soit environ 5 milliards de requêtes par jour sur son seul moteur (voir également cette liste de chiffres plutôt à jour) . Google, c’est 13 centres de traitements de données dans le monde, soit environ 1 million de serveurs selon des estimations qui se basent sur la consommation énergétique du groupe, des photographies aériennes… « Créer un moteur de recherche aussi puissant que Google nécessiterait donc de savoir programmer 1 million de machines… » Pas si simple, reconnaît l’informaticien, même si Google a créé des programmes pour cela.

DLS_007
Image : une employée dans l’un des centres de données de Google, via Google.

Google propose donc un nouveau « paradis » de l’information… un paradis qui coûte énormément d’argent à produire et qui, paradoxalement, propose des services totalement gratuits. Cela s’explique parce que ce paradis est bâti sur une face sombre : les 46 milliards de chiffres d’affaires de Google proviennent à 95 % de la publicité.

L’avenir de Google, une société fondée il n’y a que 16 ans, est de suggérer aux gens ce qu’ils auront envie de faire. Les réseaux sociaux sont gratuits, car nous ne sommes pas l’utilisateur, mais le produit, un produit toujours plus accessible à mesure que les algorithmes se sophistiquent et emmagasinent nos données et informations. « Récemment Amazon m’a proposé de télécharger gratuitement les musiques de CD que j’avais acheté en 2007 ! Des musiques que je ne me souvenais même pas d’avoir acheté et dont je ne disposais plus même plus physiquement ! » Un exemple qui illustre bien que nos relations aux Gafa sont déséquilibrées… Et le sont de plus en plus à mesure que leurs capacités de calculs, de stockage et de traitement se développent.

L’alternative P2P est-elle possible ?

Dans ce contexte, il n’est pas si évident d’imaginer des alternatives. Pourtant, si on en revient à l’origine qui nous a conduits à cette situation, la séparation clients-serveurs n’était pas obligatoire, rappelle le chercheur. On peut avoir des machines individuelles qui font les deux. C’est le principe même du P2P, du pair à pair. Le P2P est né dans les années 90 pour des services de partage de musique comme Napster. On les a utilisés pour du partage de données statiques ou pour partager de la vidéo ou de l’audio… rappelle François Taïani. Mais peut-on les étendre aux réseaux sociaux, à des outils de recommandation, à la diffusion de contenu tout en faisant qu’ils protègent mieux la vie privée des utilisateurs que le modèle client-serveur ?

La recommandation est possible sur un réseau P2P, estime l’informaticien. On peut imaginer des systèmes qui puissent apprendre d’autres utilisateurs proches par des mesures de similarité, notamment en s’appuyant sur la recherche d’amis d’amis, car quand on apprécie quelqu’un ou quelque chose, bien souvent on apprécie aussi ses amis ou ce qu’ils apprécient. Pour la diffusion de contenus, on peut s’appuyer sur des typologies évolutives qui permettraient par exemple de diffuser l’information que vous appréciez à vos proches et celle qui vous plait le moins à des utilisateurs plus éloignés de vous…

Reste que la protection de la vie privée, elle, n’est pas nécessairement plus simple avec les réseaux distribués. « Qui sait avec quelle machine nous échangeons dans un réseau P2P ? », questionne le chercheur. Peut-on lui faire confiance ? Cette question est aujourd’hui un champ de recherche assez actif, mais qui ne propose pas de solution encore concrète, autre que d’utiliser des solutions déjà existantes, comme celles d’introduire du bruit ou des systèmes de protection traditionnels, comme le cryptage…

A l’heure de la surveillance de masse, les réseaux sociaux décentralisés apparaissent comme une timide promesse, comme le montrent certaines esquisses de solution à l’image d’Owncloud, un système pour créer son propre Cloud, FreedomBox, le projet lancé par Eben Moglen pour promouvoir l’utilisation de serveurs web personnels pour fournir des services distribués, ou Diaspora, le projet de réseau social distribué… « Reste que si on veut l’envisager à grande échelle, ce modèle pose la question de son modèle économique. Qui va fournir les machines ? Les logiciels ?… » Le modèle économique publicitaire n’est-il pas un moindre mal, même si, comme l’explique l’économiste Daniel Kahneman dans Système 1 / Système 2 : les deux vitesses de la pensée (LIEN), la publicité nous manipule à notre insu ? Peut-on imaginer d’autres modèles monétaires distribués à la bitcoin, plus vertueuses, comme le propose la monnaie cup imaginée par Laurent Fournier ? Une méthode permettant de proposer à un auteur des revenus limités et fixés à l’avance, avec un prix dégressif dans le temps à mesure que l’on consomme le contenu…

Reste que ces systèmes n’interrogent pas forcément la collecte de données et sa diminution. La rendre distribuée plutôt que centralisée la rend certes un peu plus difficile à rassembler, mais pas impossible… Et ces perspectives nous renvoient à une sempiternelle question… « Quel est donc le web que nous voulons ? »

Ce qui est sûr, c’est qu’à mesure que les Etats et les Gafa le façonnent, la réponse à la question semble toujours plus nous échapper…

Hubert Guillaud

À lire aussi sur internetactu.net

0 commentaires