L’architecture et le bazar : qu’est-ce qui nous détermine ?

Les révélations d’Edward Snowden et la concentration des richesses et pouvoirs des grandes plateformes du web ont laissé aux internautes le goût amer de la désillusion, estime le sociologue d’Orange Labs, Dominique Cardon (@karmacoma, que nous avons souvent évoqué sur InternetActu), sur la scène de la dernière édition des Entretiens du Nouveau Monde industriel. Le temps des pionniers que célébrait Fred Turner dans Aux sources de l’utopie numérique (dont Dominique Cardon signait la préface) semble bien loin.

Cardonenmi2015
Image : Dominique Cardon sur la scène des Entretiens du Nouveau Monde industriel 2015, via la vidéo de Christian Mrasilevici et que vous pouvez aussi réécouter depuis le site des ENMI.

digitallabor« L’étonnant succès de la notion de Digital Labor témoigne des difficultés pratiques dans lesquelles les nouvelles réalités du numérique nous « engluent » », estime celui qui signait récemment avec le sociologue Antonio Casilli un petit livre critique sur le sujet. Le Digital Labor, rappelons-le, consiste en l’étude critique de nos activités numériques vues comme un nouveau rapport de production : tout ce que nous faisons en ligne produit de la valeur pour les acteurs du web. « La formule du Digital Labor se présente comme un « opérateur de distanciation », un geste critique qui se vide aussitôt de sa valeur subversive, car de nous découvrir « travailler pour » ne nous décourage en rien de continuer à utiliser des réseaux numériques ». Or, si notre impuissance n’est pas un consentement, pour le sociologue, le succès de la notion de Digital Labor tient à l’échec des promesses d’émancipation inconsidérées que nous avions mis dans le web. Le développement de cette critique tient au fait que les mondes numériques sont devenus un sujet d’inquiétude. « A l’insouciance des enthousiasmes pionniers, nous substituons une méfiance hostile qui nécessite de remobiliser des paradigmes critiques pour analyser les transformations du web. La notion de Digital Labor présente l’intérêt de qualifier le circuit de la valeur et la manière dont les Gafa capturent les externalités positives du travail des internautes. Mais quelle est la théorie de l’aliénation de cette théorie de l’exploitation ? », interroge-t-il. « Si l’on souhaite qu’une critique porte, il faut qu’elle permette aux gens de rendre compte de leur expérience. »

S’il faut porter un regard critique sur les nouvelles réalités numériques, estime Cardon, il est peu judicieux de le faire dans le vocabulaire de la contrainte, de l’enfermement ou de la domination. Il est difficile de faire partager aux internautes l’idée contre-intuitive qu’ils seraient enfermés sur le web. Le vocabulaire de la censure, de la déformation, de la tromperie, de la manipulation, de l’injonction ou de la programmation de leurs subjectivités porte sur des réalités nouvelles un diagnostic ancien. Il rate sa cible. Il est inefficace.

Le pouvoir des Gafa est dans la liberté des internautes

Pour Dominque Cardon, il est nécessaire de prendre acte du fait que le type de gouvernementalité qu’impose les technologies numériques aujourd’hui ne se laisse plus décrire dans le vocabulaire du couple contrôle/discipline, mais dans un autre format qu’il faudrait appeler environnement/utilité, pour faire référence à Foucault. La domination libérale consomme la liberté des sujets, disait ce dernier. Le pouvoir ne se trouve plus dans la contrainte et l’aliénation, mais dans la liberté des individus elle-même, comme l’a souligné la philosophe Antoinette Rouvroy dans ses travaux (voir notamment « Big Data : l’individu au détriment des catégories »). La gouvernance de l’environnement et la mesure de l’utilité forment un couple conceptuel qu’il faut prendre désormais en compte.

« Ce qui apparaît dans le néolibéralisme, ce n’est pas l’idéal ou le projet d’une société exhaustivement disciplinaire, dans laquelle le réseau légal enserrant l’individu serait relayé et prolongé de l’intérieur par des mécanismes, disons, normatifs. Ce n’est pas non plus une société dans laquelle le mécanisme de la normalisation générale et de l’exclusion du non-normalisable serait requis. On a au contraire, à l’ho­rizon de cela, l’image ou l’idée ou le thème-programme d’une société dans laquelle il y aurait optimisation des systèmes de différence, dans laquelle le champ serait laissé libre aux processus oscillatoires, dans laquelle il y aurait une tolérance accordée aux individus et aux pratiques minoritaires, dans laquelle il y aurait une action non pas sur les joueurs du jeu, mais sur les règles de jeu, et enfin dans laquelle il y aurait une intervention qui ne serait pas du type de l’assujettissement interne des individus, mais une intervention de type environnemental », explique Michel Foucault dans son cours sur La naissance de la biopolique en 1979. Passer d’une explication par la contrainte à une explication qui analyse un modèle de type environnemental permet de comprendre ce qui est en jeu dans les transformations actuelles du web et d’esquisser une proposition de réaction. Si nous tirons les conséquences de ce nouveau régime numérique, des nouvelles formes calculatoires du web, et si nous nous écartons du discours surplombant du grand panoptique contraignant, il est alors possible de faire un diagnostic et des propositions critiques plus à même de rencontrer les pratiques des internautes, pour dépasser leur impuissance, propose Dominique Cardon.

Nous avons besoin des technologies calculatoires !

Pour le sociologue, il est inutile de lancer une « grande mobilisation frontale contre les algorithmes surtout si c’est pour leur opposer la subtilité sage, libre et désintéressée des humains », souligne-t-il avec ironie. « Nous avons besoin des technologies cognitives du web, même lorsque celles-ci sont calculatoires ». Le web, sans son architecture algorithmique ne serait rien d’autre qu’un vaste capharnaüm, « qui ne ressemblerait en rien à la rencontre fortuite d’un parapluie et d’une machine à coudre sur une table de dissection, comme le disent ceux qui chérissent le hasard sans jamais beaucoup le pratiquer. A plat, le web est un chaos. Un amas incohérent sans poésie ni surprise. C’est accorder une confiance démesurée à la capacité de synthèse et à l’intelligibilité des internautes que de penser qu’il vaudrait mieux ne rien classer, ne pas hiérarchiser, tout mettre à plat pour libérer nos capacités cognitives des griffes des calculateurs. La force du web tient à la qualité des assemblages techniques que nous formons avec lui. Et il serait ruineux de réinternaliser ce que nous avons délégué aux artefacts. Qui voudrait refaire à la main l’annuaire du web de Yahoo ! ? »

La question qui se pose n’est donc pas celle du refus des « artefacts calculatoires » mais de la manière dont ils imposent leur ordre, de la façon dont nous comprenons l’architecture qu’ils ont construite avec les internautes et la manière dont nous pouvons la critiquer et la façonner autrement. Pour le dire autrement, ce qui doit être pensé c’est le contrat social entre les internautes et les calculateurs. Nous avons besoin de faire apparaître les règles de ce contrat, les modalités de la confiance sociotechnique qu’ils mettent en place.

Le web : capharnaüm ou prison ? Bazar ou architecture ?

« Le web est à la fois un bazar et une architecture. D’une façon contradictoire, certains lui reprochent son désordre quand d’autres dénoncent son ordre – certains même lui faisant les deux reproches en même temps. Il est un bazar pour ceux qui le connaissent mal et le pratiquent peu. En libérant les subjectivités, il a autorisé toutes les audaces énonciatives, certaines créatives et argumentées, d’autres fausses, idiotes, inintéressantes et parfois dangereuses.

Ceux qui en décodent l’architecture informationnelle en voient une tout autre version, notamment ceux qui analysent l’emprise hégémonique des algorithmes et des grandes plateformes. Pour eux, le web est structuré comme un environnement avec une visibilité, une attention, des hiérarchies inégalement distribuées, rationalisées, cadenassées… Le répertoire des reproches adressés à ce nouvel ordre de l’information numérique n’est pas loin de reprendre terme à terme celui émit pour dénoncer l’hégémonie des médias traditionnels : censure, déformation marchande, enfermement des utilisateurs, relégation des contenus minoritaires… » que l’auteur avait analysés avec Fabien Granjon dans Médiactivistes.

aquoireventlesalgos« Capharnaüm ou prison ? Il est frappant qu’une même réalité soi soumise à des représentations aussi contradictoires. La réalité du web est qu’il est bien une architecture, mais que celle-ci est bien plus complexe que celle que réaniment les tenants d’un web du contrôle. » Nous ne tenons pas assez compte des travaux qui montrent la multiplicité des principes d’organisation qui traversent les diverses localités du web. « Cette topologie fait pourtant apparaitre une géographie décentralisée et étagée, plurielle et éclatée dans laquelle règne des systèmes emboités de hiérarchisation de l’information. » C’est cette diversité que Dominique Cardon a tenté de souligner dans son dernier livre, A quoi rêvent les algorithmes, en montrant que les calculateurs produisent des mondes différents, régit par des principes différents : la popularité, l’autorité, la réputation, la prédiction personnalisée, qui ont chacun des vertus et des défauts. « La richesse du web, à la différence des autres médias, est d’avoir emboité ces styles architecturaux variés pour diversifier les formes de classement et les chemins d’accès à l’information. Les tableaux qui cherchent à faire du web un univers où règne l’addiction, la viralité et l’automatisme rendent aveugle à sa variété, à la diversité des assemblages socio-techniques et à la multiplicité des régimes d’engagement dont il est le support. Certains discours généralisant sur le numérique ne tiennent aucun compte de la réalité des usages et des dynamiques socioculturelles qui les animent pour prononcer leurs vérités. Or ceux-ci développent des savoir-faire et des heuristiques pour apprivoiser et s’adapter aux différents environnements numériques. Les internautes déchiffrent, jouent, truquent et instrumentalisent leurs pratiques des plateformes. Ce qui apparaît comme désordonné, irrationnel, incohérent, répond du point de vue des utilisateurs à des logiques signifiantes, rationnelles. Il se développe inégalement, de manière fragmentaire et localisée, une véritable réflexivité stratégique de l’usage, des traces, des métriques et des artefacts cognitifs qui sont les supports essentiels des activités numériques. » Les internautes tentent de faire sens de leur relation aux environnements sociotechniques auxquels ils sont confrontés, à l’image des pas de danse que nous menons avec les algorithmes qu’évoquait Frank Swain, cette ingénierie inversée qui tente de déterminer le fonctionnement d’un système en étudiant ses réponses.

Cardon4famillesdecalcul
Image : tableau présentant les 4 familles de calcul que détaille Dominique Cardon dans son livre A quoi rêvent les algorithmes.

Le web devient incompréhensible à mesure que les espaces communs disparaissent

« Si l’expérience des internautes est plus variée et réflexive que ce que pensent ceux qui parlent en leur nom, la connaissance pratique que nous avons de l’architecture globale de la multiplicité des étages calculés du web est très faible et sa compréhension reste très incomplète. Nous naviguons avec des heuristiques pratiques, des routines installées, des signaux locaux par des chemins fabriqués par d’autres, sans cartes ni boussoles. On pourrait dire que le web s’est rendu illisible, non pas par défaut d’architecture, mais par leur multiplication. Si les usagers s’y retrouvent localement personne en revanche ne parvient vraiment à avoir une représentation globale du web. Il nous manque toujours la photo globale. Et chacun suppose que la photo globale correspond à ce qu’il voit localement depuis ses propres pratiques. »

Mais l’architecture du web aussi complexe et peu lisible soit elle est déjà en train de changer de statut. La nouvelle orientation prise par le calcul algorithmique transforme son architecture en « une succession de monades virtuellement construites pour chaque internaute ». Désormais chacun accède à un web différent : « les structures de la vie partagée et commune s’estompent ». La personnalisation fait peu à peu disparaître les espaces communs, les espaces publics. Elle obscurcit et floute toujours un peu plus les formes de visibilité que le sociologue s’était attaché à étudier.

« Si l’architecture éclatée de l’information numérique est d’une très grande complexité, elle présente l’avantage d’obéir à des règles relativement publiques, stables et interprétables : les clics mesurent la popularité, les liens l’autorité, les boutons sociaux la réputation… Classements et métriques produisent localement des mondes déchiffrables et interprétables mêmes si la jointure entre ces mondes (les stratégies pour truquer les métriques, l’hybridation des mesures, les intérêts des plateformes, la vitesse de circulation entre l’ensemble…) ne permettent pas de faire de l’architecture de l’information sur le web un ordre à la beauté géométrique telle que les connaissent les grands classements documentaires. La raison du web est déposée dans un tissu de méta-signaux informationnels qui l’équipent de repères et d’indices (listes, hastags, cartes sémantiques, trendings topics, compteurs d’audience, métriques de viralité, boutons sociaux, notes et avis, etc.) – et on ne sera jamais assez attentif à l’importance que ce mobilier joue aujourd’hui dans le design de l’architecture du web. Le mouvement que l’on observe aujourd’hui avec cette dynamique de personnalisation algorithmique vise à faire disparaître toute architecture extérieure, stable, publique et accountable, de règles et de principes. Elle s’efface au profit d’un calcul personnalisé qui prétend architecturer l’environnement pour chacun sans qu’il ne puisse faire référence à une forme commune et intelligible. »

« La manière dont les algorithmes veulent désormais configurer l’environnement numérique est de glisser dans chaque internaute le calculateur de ses conduites pour construire pour lui et pour lui seul un monde qui pousse sa fonction d’utilité. L’architecture de l’information ne correspond plus alors à des formes partagées et publiques, mais devient la bulle solipsiste et personnelle qui a été fabriquée pour chacun. Le moteur de la personnalisation fait disparaître les plans de cette architecture du web en les cachant dans deux boîtes noires : les techniques d’apprentissage automatiques (le machine learning) et les habitus. »

La boîte noire de l’apprentissage automatique

« Cette disparition des règles est d’abord produite par les effets des nouvelles boîtes noires du machine learning, en calculant au ras des données sans les catégoriser, en faisant de la règle les sorties du calcul et non plus l’entrée, en transformant la connaissance des dépendances en variables d’une optimisation efficace, en démultipliant les règles de bas niveau changeantes et instables pour calculer différemment les données selon les contextes, les techniques de machine learning ont abandonné l’idée de présenter une interprétation intelligible ou symbolique de leurs opérations ». Si, cette transformation est loin d’être accomplie, si elle produit des résultats impressionnants sur certains types de données, elle n’a pas fait ses preuves sur tous les jeux de données, modère le sociologue. Les règles qui président aux calculs s’enfouissent désormais dans les méthodes d’apprentissage rendant par là même ces règles invisibles.

Et le sociologue de prendre comme exemple le Page Rank de Google – qu’il a étudié. Celui-ci a longtemps eu pour pour ambition d’imposer une règle, un principe et une norme sur le web : « approximer l’autorité des informations en faisant des liens hypertextes le véhicule d’un signal, d’une reconnaissance permettant de les transformer en outil de classement de l’information numérique ». Google cherchait ainsi à imposer sa définition du « bon signal » incorporé dans le lien hypertexte en en faisant une marque de reconnaissance, lui permettant de déqualifier les liens hypertextes qui n’en transportaient pas, mais qui étaient le siège de stratégies, de calcul, d’achats, d’échanges ou de manipulation des signaux d’autorité. « Le Page Rank a longtemps cherché à imposer un ordre normatif et régulé sur la définition de l’autorité, sur la manière dont la hiérarchie de l’information devait être produite et pour cela il devait exercer une police autoritaire pour domestiquer les comportements d’écriture sur le web. Désormais, Google va pouvoir se passer de cette ambition normative. Il a de moins en moins besoin de domestiquer les webmestres… pour qu’ils respectent sa définition du lien hypertexte. Son algorithme n’est plus tenu de justifier ses classements selon le principe de l’autorité. Avec les techniques d’apprentissage, il apprend désormais des clics sur les résultats affichés la manière dont il doit classer l’information pour rendre à chacun le service qui lui correspond. Il lui suffit donc d’apprendre de chacun ce qui lui est le plus utile.

C’est le même déplacement qui s’est opéré avec le fil d’information de Facebook. On est passé d’un système normatif intelligible et justifiable privilégiant les informations venant de nos « vrais » « amis » – ceux avec lesquels l’utilisateur a réellement interagit -, au calcul de la bulle informationnelle de chacun en donnant comme objectif à l’algorithme de faire rester le plus longtemps possible l’internaute dans Facebook. La règle consistant à privilégier ses relations les plus proches est désormais une conséquence émergente des clics des internautes.La disparition de la règle préalable permet de ne pas imposer un ordre normatif sur les classements, mais de les déduire des règles de comportements afin de gérer les singularités de chacun. » Ce sont nos routines, nos habitudes qui construisent l’algorithme des environnements sociotechniques que nous utilisons.

« On a beaucoup reproché aux algorithmes d’être secrets, mais il était au moins possible de tenter d’en comprendre les principes. De plus en plus, ils sont non seulement secrets, mais aussi inintelligibles, même pour ceux qui les fabriquent », comme le soulignait récemment Wired

« C’est parce que nous sommes prévisibles que les calculateurs calculent bien »

La disparition des règles du web architectural dans les boites noires du machine learning a été rendue possible en prenant appui sur une autre boite noire dont nous oublions souvent qu’elle est l’indispensable condition des possibilités des nouveaux calculs : la régularité de nos comportements eux-mêmes. « Les nouvelles techniques algorithmiques règlent leurs calculs sur la performance des prédictions à partir d’un principe simple et unique d’efficacité. Or ces résultats ce sont nos comportements numériques qui les donnent aux calculateurs. Ils se règlent sur nos régularités (classements, clics d’achats, comportements lors de nos navigations, likes et tweets, vitesse de lecture d’un ebook…). Sans ces informations, il est impossible que les algorithmes façonnent leurs prédictions. C’est la mise ne place de boucles de rétroaction réglant les signaux en fonction de nos traces qui est au coeur de la transformation numérique actuelle : c’est elle qui a transformé les algorithmes réglés par des principes normatifs, explicites et communs, en boites noires qui s’ajustent efficacement et de façon personnalisé à nos comportements. » Les algorithmes ont abandonné leurs principes normatifs en utilisant nos traces pour y bâtir de nouveaux systèmes dédiés à leur seule efficacité. « La règle qui régissait leurs fonctionnements est désormais celle qui, dans l’utilisateur lui-même, ordonne ses comportements. » Ils épousent nos comportements pour nous rendre le service que créé notre recherche d’utilité. Ils se développent au coeur même des informations comportementales que nous leur cédons. « C’est parce que nous sommes prévisibles que les calculateurs calculent bien ».

« Et cette prévisibilité doit autant à l’ordre qu’il nous impose qu’à cet autre algorithme qui structure nos choix, nos goûts, nos désirs et nos affinités et que Pierre Bourdieu appelait notre habitus. Le newsfeed de Facebook nous enferme certainement beaucoup moins dans une structure informationnelle que ne le fait la structure de nos choix affinitaires qui conduisent à ce que, sélectionnant tels ou tels amis nous reproduisons les propriétés sociales et goûts culturels qui sont à la racine de notre socialisation. »

Notre libre-arbitre en question : être attentif à ce qui nous détermine

« Une des raisons du sentiment d’insatisfaction et de déception que nous pouvons avoir à l’égard des réalités numériques est d’ailleurs certainement une conséquence de l’intensification de la représentation que nous nous faisons de nous-mêmes comme des êtres libres, autonomes et auto-déterminés ». En mettant à jour combien nous le sommes peu, nous semblons perdre un peu plus de notre contrôle sur le monde, semble nous dire Dominique Cardon. Mais cela même nous invite à le voir autrement. « Au lieu d’être si vigilants sur tout ce qui peut venir contraindre, brider ou empêcher nos navigations nous devrions être attentifs à tout ce qui nous détermine. A cet ensemble si régulier et automatique de comportements monotones qui dirigent nos navigations numériques et informent les algorithmes. Si nous étions moins attentifs à notre liberté qu’à notre détermination, je crois que nous serions beaucoup plus outillés pour faire effectivement de vrais choix. » Pierre Bourdieu aimait à rappeler que Spinoza définissait nos libertés par la connaissance que nous avions des déterminations. Les algorithmes qui calculent bien calculent à partir de nos régularités comportementales. « Certains se sentent suffisamment outillés pour se penser autonomes et autodéterminés dans leurs propres pratiques. Ceux qui sont enfermés, domestiqués, aliénés sont toujours les autres. Or, la réalité est que nous sommes tous réguliers et prévisibles. »

Pour le sociologue, c’est dans cette réalité là qu’il faut imaginer une conception critique de l’architecture du web. « Au lieu de demander aux interfaces le hasard et la liberté, nous devrions exiger d’elles qu’elles nous montrent nos déterminations, qu’elles localisent la fenêtre depuis laquelle nous voyons l’information, qu’elles déterminent la position de chaque internaute sur la structure des hiérarchies des visibilités, qu’elles reproduisent les classements sociaux qui sont les principes des choix et navigation que nous faisons sur l’internet… » Nous permettre de voir d’où nous voyons, mais également pour voir ce que nous ne voyons pas, les « totalités », comme il le proposait déjà dans « Zoomer ou dézoomer ».

Ces propositions ne sont pas absentes des modes de conception de ceux qui fabriquent les outils et services du web, mais elles sont recouvertes et minorées par leurs autres obsessions : celle de fluidifier et simplifier l’expérience de l’utilisateur, modère Dominique Cardon. La logique utilitariste de l’efficacité algorithmique conduit à produire des services qui visent l’individu sans lui donner les règles qui procèdent aux calculs et sans lui montrer la carte des autres. « Nous ne savons pas comment nous avons été calculés, mais nous ne savons pas non plus à qui nous avons été comparés ».

Faire réapparaître les collectifs à partir desquels nous sommes calculés

La disparition des formes statistiques catégorielles à travers lesquels les sociétés sont construites pour se représenter constitue le paradigme dans lequel sont aujourd’hui pensées les transformations algorithmiques du web. Il s’agit tout à la fois de faire disparaitre les catégories de représentation traditionnelles de l’internaute et de rendre l’expérience utilisateur la plus fluide et continue possible pour installer une boucle réflexe courte et automatique avec leurs clics. Dézoomer c’est donner à l’utilisateur le moyen d’établir un court-circuit dans boucle automatique qu’installent les calculateurs. C’est aussi et surtout un moyen de faire réapparaitre les collectifs auxquels les calculs individuels sont accrochés. Or, la représentation numérique des totalités sur les interfaces du web est de plus en plus pauvre. Depuis sa naissance, Twitter ne fait toujours pas mieux que la très fluette liste de trending topics très mal calculés pour nous donner des moyens d’échapper aux flux continus de nos abonnés en identifiant les discussions des autres, rappelle Dominique Cardon. Les médias en ligne s’interrogent de plus en plus sur la personnalisation de la hiérarchie de l’information en fonction des consommations de leurs lecteurs. Mais plutôt que de chercher à réordonner la hiérarchisation de l’information en abolissant la fonction éditoriale des gardiens, pourquoi ne pas permettre de visualiser la navigation des autres ? On pourrait imaginer par exemple une carte du Monde montrant au lecteur du journal le Monde les articles par pays qui ont été les plus lus et suggérés aux lecteurs individuels et montrer sa propre consommation par rapport à celle des autres… Voir la carte, donner la possibilité de dézoomer… Il est frappant de constater à quel point l’imagination des grands concepteurs est aujourd’hui polarisée par l’idée d’individualiser, de personnaliser l’information utile sans jamais se préoccuper de remontrer les collectifs à partir desquels chaque trajectoire a été calculée. On pourrait faire beaucoup d’autres usages de la collectivisation des traces individuelles dans cet esprit, conclut le sociologue.

Pour lui, nos imaginations et nos initiatives ne sont pas encore à la hauteur des opportunités et potentialités que nous offre le web. « Les moyens financiers, l’attention des internautes et les compétences sont aujourd’hui aspirés par l’économie numérique qui se préoccupe avant tout d’élargir son empire et de le monétiser. Mais il serait aussi maladroit de considérer que le développement du marché des grandes plateformes interdit ou empêche de faire autre chose, autrement, et selon d’autres principes. L’histoire du web est émaillée d’initiatives audacieuses, originales, curieuses et en rupture. Il n’y a aucune raison de penser que ces dynamiques doivent s’arrêter ou qu’elles soient réellement entravées par la domination des Gafa. Plus que jamais il appartient aux chercheurs, aux communautés, aux pouvoirs publics d’encourager des initiatives qui préservent cette dynamique réflexive, polyphonique et peu contrôlable que les pionniers du web nous ont confié », conclut le chercheur avant d’annoncer le lancement d’un programme de l’Agence nationale de la recherche baptisé Algodiv (pour algorithme et diversité), qui vise à donner des moyens informatiques, statistiques et calculatoires pour rendre compte de l’architecture des navigations sur le web et imaginer des techniques et des dispositifs de représentation pour auditer, critiquer et renouveler les formats qui dominent les grandes plateformes du numérique.

La réflexion conduit toujours à l’action et mène à des chemins de traverse que l’on ne peut que souhaiter fructueux.

Hubert Guillaud

À lire aussi sur internetactu.net

0 commentaires

  1. « “Au lieu de demander aux interfaces le hasard et la liberté, nous devrions exiger d’elles qu’elles nous montrent nos déterminations, qu’elles localisent la fenêtre depuis laquelle nous voyons l’information, qu’elles déterminent la position de chaque internaute sur la structure des hiérarchies des visibilités, qu’elles reproduisent les classements sociaux qui sont les principes des choix et navigation que nous faisons sur l’internet…”

    Ben oui, vers 2006-2007, il existait en France une excellente plateforme expérimentale appelée OVERCROWDED, soutenue un temps par Orange et la FING, où des artistes développaient et testaient des idées en ce sens. Pour qui savait regarder, il y avait là de quoi faire mieux que Twitter et autres. Recherche classée sans suite…

    Je suis curieux d’observer la pérennité et les retombées d’un nouveau programme ANR en ce sens. En effet, tout semble se passer en France comme si l’habitus de la recherche institutionnelle consistait à s’emparer des mots un brin révolutionnaires pour capter les budgets publics, et de tout laisser tomber une fois que les crédits ont disparu. Puis en attendant d’autres budgets, on écrit des livres.

    http://web.archive.org/web/*/http://overcrowded.anoptique.org/

  2. Bonjour,

    On lit souvent cela :
    « Le Digital Labor, (..) : tout ce que nous faisons en ligne produit de la valeur pour les acteurs du web. » : C’est au coeur de nombreuses critiques des GAFA.
    C’est au coeur aussi de la fameuse phrase : »si un produit est gratuit, c’est toi le produit ».

    Mais cela est un peu fallacieux.
    Les « grands plateformes du web » ont plutôt réussi à valoriser des choses que nous ne sommes pas ennuyés de fabriquer.
    Je trouve qu’une image plus juste serait qu’ils arrivent à faire de l’argent avec nos poubelles qu’avec notre travail.
    Et c’est bien pour ça que tant de gens continuent à utiliser ces services qui les font « travailler » …
    Et je trouve aussi un peu fallacieux de leur demander ensuite de nous payer pour ça alors que nous n’y attachons pas de valeur, nous-mêmes.

    a+
    Bigben

  3. Trop de jargon sociologique tue le jargon sociologique.
    Dommage, le sujet avait l’air intéressant.

  4. Article épais, mais extrêment intéressant, voir à la limite du fabuleux.
    Mon avis est qu’il arrive à retranscrire avec justesse ce qu’on ne dépeint jamais de l’arrière-boutique que sont les Internets et la tournure que prend son évolution.

    Félicitation !

  5. Comme le notait DominiqueCardon lors d’une réunion de préparation de l’Université de printemps de la Fing : « si les éditeurs de plateformes sociales (blogs en particulier) se gardent bien de mettre en œuvre des processus de visibilité globale et réciproque entre leurs utilisateurs, c’est sans doute, qu’ils soupçonnent que ces processus pourraient faire diverger la dynamique du groupe vers des objets qui dépassent ce qu’ils en attendent… »

    Cette mise en visibilité apparaît pourtant comme une nouvelle frontière des médias sociaux, qui mérite donc d’être expérimentée, tant en termes techniques que cognitifs, sociaux, culturels et politiques. Étant donné la vocation de recherche dans ce domaine affichée par le projet de Consortium qui s’élabore sur le wiki Overcrowded, celui-ci pourrait être un bon lieu pour mener l’expérience à petite échelle. »

    (texte retrouvé sur la waybackmachine / overcrowded.anoptique. org/ FractalAggregator 2006)