Après Google : les moteurs de recherche P2P ?

Par le 15/01/08 | 9 commentaires | 14,382 lectures | Impression

Quand on évoque un moteur de recherche P2P, on pense le plus souvent à un moteur de Torrents pour chercher des albums ou des films sur des plateformes P2P. Pourtant, depuis Skype ou Joost, on sait que la technologie P2P peut avoir d’autres applications que le partage de fichiers.

A l’heure où les moteurs de recherches alternatifs ne parviennent pas à entamer l’hégémonie des principaux moteurs de recherche, “Est-ce que les réseaux P2P peuvent être un tueur de Google ?”, s’interroge Bernard Lunn pour Read/Write Web.

Selon lui les barrières ne reposent pas sur la qualité des algorithmes de recherche, mais d’abord sur les pratiques et notamment le fait que changer de moteur de recherche nécessite de changer d’habitude. L’autre barrière est désormais que la profondeur de l’indexation demande d’investir des millions de dollars dans des fermes de serveurs pour arriver à scanner le web aussi massivement que le fait Google. Peu d’espoir à attendre de ce côté là, estime-t-il car pour prendre un autre exemple, voilà plus de dix ans que plus personne n’essaye d’investir pour défier Microsoft dans son hégémonie des systèmes d’exploitation. Pour Bernard Lunn, les réseaux P2P sont le seul moyen pour dépasser cette barrière technico-financière qui devient chaque jour plus élevée : il faut utiliser l’infrastructure des utilisateurs !

Et de signaler Faroo, le moteur de recherche en P2P, qui outre sa proposition économique (Faroo propose aux utilisateurs de leur retourner 50 % des revenus des recherches), propose aussi quelques fonctionnalités intéressantes en matière de respect de vie privée ou du contrôle sur le Spam. Bien sûr, reconnaît-il, le modèle de Faroo n’est pas évident à entr’apercevoir à ce stade : encore en beta, et avec un nombre d’utilisateurs très limités, Faroo a plutôt tendance à ne renvoyer aucune réponse à vos résultats. Faroo indexe seulement les sites que ses utilisateurs visitent, ce qui a pour conséquence qu’aujourd’hui, la plupart des requêtes ne reçoivent aucune réponse. Tant que les utilisateurs ne se comptent pas en millions, le service risque bien d’être très décevant – et tant qu’il décevra, les utilisateurs manqueront… Peut-être que l’avenir d’un tel moteur est-il de s’allier avec un réseau P2P existant et étendu, pour arriver rapidement à un seuil d’utilisateurs qui donne des résultats satisfaisants ?, suggère Bernard Lunn.

Reste que par rapport aux moteurs de recherche sociaux, les moteurs de recherche P2P mettent les données sous le contrôle de l’utilisateur, comme l’expliquait les concepteurs de Faroo et Jeremie Miller de Wikia/Atlas aux auteurs de AltSearchEngine : “Faroo ne collecte pas les logs des utilisateurs. Toutes les requêtes ainsi que l’index distribué sont cryptés. Ni les autres pairs, ni les intermédiaires ne peuvent observer les requêtes ou les pages visitées. Du fait de son architecture distribuée, Faroo travaille comme un anonymiseur. Aucune information personnelle ne quitte l’ordinateur du client. Même la personnalisation est réalisée du côté client.”

A l’heure du web implicite, il n’est pas sûr que ce soit forcément un atout. Mais donnons à Faroo comme à Wikia un peu de temps pour faire leurs preuves…

Sur ces mêmes sujets

Rétroliens

  1. links for 2008-01-16 » Emgenius’ News
  2. FAROO Blog » Blog Archive » Echo in the blogosphere
  3. 1 méthode de sécurisation par jour - Chapitre 5: Utiliser des proxys, choisir des sites non “loggués” et utiliser des réseaux décentralisés - Op'Aisne Source
  4. Revue des sciences 02/08 | Jean Zin

5 commentaires

  1. Réaliser un moteur de recherche généraliste en P2P semble très ambitieux à ce stade pour toutes les raisons que tu signales. Une autre voie consiste à proposer des moteurs de recherche spécialisés sur certaines données structurées en amont par un logiciel ad hoc. C’est ce que fait par exemple le moteur de recherche P2P du logiciel @rbre pour les données généalogiques (disponible en alpha sur http://arbre.km2.net). Rien n’interdit de penser que si d’autres logiciels proposaient cette fonctionnalité pour d’autres types de données, il serait possible de construire par agrégation des moteurs de plus en plus généralistes…

  2. par Wolf

    Nice post,

    > A l’heure du web implicite, il n’est pas sûr que
    > ce soit forcément un atout.

    Privacy and the “Implicit Web” are not necessarily conflictive:
    Attention economy, the implicit web and myware
    http://blog.faroo.com/?p=22

    Best regards,
    Wolf

  3. I agree. Not necessarily. It depends in the policy of the engine you are using. And Faroo appears to be an exception, in this wild wild web. ;-)

  4. Dans ce domaine Virginie Clayssen (teXtes) m’a fait récemment découvrir un moteur personnalisable utile :
    http://www.k-sync.com/

    Un complément à intégrer aux agrégateurs pour une veille efficace ?

  5. Excellent article du ReadWriteWeb sur Faroo qui pointe les avantages (l’indexation repose sur les habitudes des utilisateurs ce qui contribue à éliminer le bruit, l’anonymat de requête est fort, et les utilisateurs pourront à terme en tirer des revenus) et les inconvénients du système (le problème de la poule et de l’oeuf sur le développement de la base d’indexation, et la nécessité de télécharger un client qui sont des freins à l’expansion).