Evgeny Morozov (@evgenymorozov), l’auteur de Net Delusion (qui prépare un livre intitulé Pour tout sauver, cliquez ici : la folie du solutionnisme technologique) a publié une très intéressante tribune sur le site du New York Times intitulée « Vous ne pouvez pas dire ça sur l’internet« .
Il y explique que l’hyper-tolérance née de l’ouverture et de la contre-culture de la Silicon Valley masque souvent une façade bien plus conservatrice qu’elle ne s’en donne l’air. Les normes obsolètes et pudibondes de la Valley s’imposent discrètement sur des milliards d’utilisateurs du monde entier.
Le véhicule de cette nouvelle pudibonderie repose dans les algorithmes qui « déterminent automatiquement les limites de ce qui est culturellement acceptable ». Et Morozov de dresser une liste d’exemples que nous avons tous entraperçus. En septembre, le New Yorker a vu sa page Facebook bloquée pour avoir enfreint les conditions générales d’utilisation qui précisent que les photos dénudées ne sont pas autorisées (sauf si les parties génitales et les seins sont cachés – Gawker a publié en février la charte de modération de Facebook confiée à un prestataire extérieur, oDesk). Le délit du New Yorker : une illustration montrant les seins d’Eve dans le jardin d’Eden. La vénérable publication américaine est donc moins puritaine qu’une start-up californienne qui a pour ambition de « rendre le monde plus ouvert ».
De nombreuses sociétés pratiquent pour le compte de tiers ces formes de modération automatiques comme Impermium, une start-up de la Silicon Valley qui aide les sites web a identifier les contenus indésirables comme la violence, le racisme, le blasphème, les discours de haine… « Impermium contrôle les lecteurs » clame sa baseline… « Mais qui contrôlera Impermium ? », ironise Morozov. Apple s’est également souvent écarté de ses racines iconoclastes, rappelle le chercheur. Le dernier livre de Naomi Wolf, Vagin, une nouvelle biographie a vu son titre transformé par l’iBookstore en V***n et il a fallu de nombreuses plaintes pour qu’Apple rétablisse le titre original.
Contrairement à la Poste américaine qui à son époque, a confisqué parfois des livres qu’elle jugeait trop obscènes comme L’amant de Lady Chatterley, la Silicon Valley ne se livre pas à une censure directe, rappelle Morozov. Mais elle n’en présente pas moins des termes courants comme des termes honteux. « La Silicon Valley ne se contente pas de refléter les normes sociales, elle les façonne activement de manières, qui sont, pour la plupart, imperceptibles. »
La prolifération de la fonction de saisie semi-automatique sur les sites web les plus populaires en est un autre exemple (« Les résultats qui s’autocomplètent dans les moteurs de recherche soulignent le caractère privé des conversations que les gens croient avoir leurs ordinateurs » rappelait récemment Sean Gourley du moteur de recherche Quid dans un article du New York Times). En théorie, tout ce que fait la saisie automatique est de compléter votre requête avant que vous ayez fini de la taper en utilisant un algorithme pour prédire ce que vous allez inscrire. Une fonctionnalité intéressante, mais qui renforce elle aussi ce qui est convenable. Et Morozov d’utiliser les « 7 mots que vous ne pouvez pas dire à la télévision », la liste des mots interdits que l’humoriste américain George Carlin a listé dans un sketch dès les années 70. Aucun de ses mots n’apparaît en saisie automatique sur la plupart des plus grands sites web de l’internet… Et ce ne sont pas les seuls.
En 2010, le magazine hacker 2600 a publié une liste noire de termes que Google n’identifie volontairement pas. Google ne propose pas de saisie automatique pour « Croix gammée » ou « Lolita ». A croire que Nabokov n’est pas tendance à Moutain View, ironise Morozov, car pour l’instant, l’algorithme ne sait pas distinguer l’amateur du roman de Nabokov de la pornographie infantile.
« Pourquoi les entreprises de haute technologie ne nous permettent-elles pas d’utiliser librement des termes qui jouissent déjà d’une large diffusion et légitimité ? Pensent-ils être les nouveaux gardiens ? Sont-ils trop avides de profits pour corriger les erreurs de leurs algorithmes ?
Grâce à la Silicon Valley, notre vie publique est en pleine transformation. Accompagnant cette métamorphose numérique il émerge de nouveaux gardiens, algorithmiques, qui (encore plus que) les gardiens de l’époque précédente – journalistes, éditeurs, rédacteurs en chef – ne cachent pas leur autorité culturelle. Peut-être ne sont-ils pas même conscients de cela, trop désireux de déployer des algorithmes pour le fun et le profit.
Beaucoup de ces gardiens demeurent invisibles – jusqu’à ce que quelque chose tourne mal. Ainsi, début septembre, le livestream du prix Hugo, les Oscars du monde de la science-fiction, a-t-il été interrompu par un avertissement énigmatique, juste avant que le populaire auteur Neil Gaiman livre son discours. Apparemment, Ustream – le site qui diffusait en streaming la cérémonie – a recours aux services d’une entreprise qui détermine si les vidéos en streaming violent les droits d’auteurs. Cette entreprise partenaire – vobile – s’appuie sur de très vastes archives vidéo pour voir, en temps réel, si ce qui est diffusé correspond à ses collections. Le contenu de la diffusion précédant l’intervention de Neil Gaiman a déclenché une requête qui a coupé automatiquement la retransmission, et ce, même si les organisateurs avaient négocié toutes les autorisations nécessaires. »
« Les limites du contrôle de l’accès algorithmique apparaissent ici en plein jour », souligne Morozov. Comment enseigner l’idée du « fair use » (l’usage acceptable) à un algorithme ? On sait que le contexte est important, et qu’il ne peut y avoir de livre de règles : c’est pourquoi nous avons des tribunaux, rappelle Morozov.
Nos réputations sont de plus en plus à la merci des algorithmes. Bettina Wulff, l’épouse de l’ancien président de la République fédérale d’Allemagne, a porté plainte contre Google qui automatiquement suggérait quand on tapait son nom dans le moteur de recherche des mots comme « escorte » ou « prostituée ». Google s’est défendu en expliquant que les termes suggérés n’étaient que « le résultat généré algorithmiquement par des facteurs objectifs, incluant la popularité des termes de recherche saisis ».
La défense de Google pourrait être tenable si ses propres algorithmes n’étaient pas si faciles à tromper. En 2010, l’expert en marketing Brent Payne a payé une armée d’assistants pour effectuer des recherches avec les termes « Brent Payne manipule cela ». Rapidement, ceux qui commençaient à taper « Brent P » dans Google voyaient cette expression suggérée par la saisie semi-automatique. Après que M. Payne ait raconté publiquement cette expérience, Google a retiré cette suggestion, « mais combien de cas similaires ont-ils été détectés ? Que signifie des « facteurs objectifs » de « vérités » algorithmiques ? »
« La pudibonderie étrange, l’application excessive du droit d’auteur » (le Copyright Madness) « créent d’inutiles dommages à notre réputation : les fonctions de gardiens algorithmiques prélèvent un lourd tribut à nos vies publiques. Au lieu de traiter les algorithmes comme un élément naturel, comme le reflet objectif de la réalité, nous sommes conduits à examiner et démonter attentivement chaque ligne de code. »
Pourrait-on faire autrement sans heurter le modèle d’affaires de la Silicon Valley ?, interroge le chercheur. Peut-être. Le monde de la finance face à un problème similaire propose une solution. Après plusieurs catastrophes causées par la finance algorithmique cette année, les autorités de Hong Kong et de l’Australie ont élaboré des propositions pour mettre en place des audits indépendants et réguliers de la conception, du développement et des modifications des systèmes informatiques utilisés dans ces opérations. « Pourrions-nous avoir des audits pour faire la même chose à Google ? La Silicon Valley n’aurait pas à divulguer ses algorithmes propriétaires, mais seulement à les partager avec des experts. Est-ce une mesure drastique ? Peut-être. Mais cette solution n’est-elle pas proportionnelle à la force de frappe technologique croissante que ces entreprises possèdent dans le remodelage non seulement de notre économie, mais aussi de notre culture ? »
« De toute évidence, la Silicon Valley ne développera pas ni n’embrassera facilement des normes similaires. Mais, au lieu d’accepter cette nouvelle réalité comme un fait accompli, nous devons nous assurer que, tout en leur permettant de faire des profits toujours plus importants, nos gardiens algorithmiques soient contraints d’accepter l’idée que les fonctions qui définissent leur culture soient demain plus responsables. »
On peut choisir d’accepter les règles que nous imposent les algorithmes et faire de manière à ce que nos propos et images se conforment au monde lissé qu’ils nous proposent. Jusqu’à présent, comme le montrent les exemples qu’évoque Morozov, la plupart des problèmes que les algorithmes pudibonds introduisent se résolvent plus ou moins bien. Mais peut-on continuer à accepter une gestion par l’erreur, dont la solution dépend surtout de votre capacité à mobiliser une audience suffisamment forte pour que les géants du net s’en préoccupent ? On voit bien que ce n’est pas une solution, à tout le moins que ce n’est pas une solution très égalitaire.
Tarleton Gillespie ne disait pas autre chose quand il évoquait ces algorithmes qui nous gouvernent et sur lesquels nous n’avons pas prise. Daniel Engber pour Slate revenait récemment sur la formule « corrélation n’est pas causalité », montrant que le succès actuel de cette acception (née sous la plume d’un mathématicien de la fin du XIXe siècle) reflète combien nous sommes cernés par les corrélations. Ce slogan serait-il une manière de nous opposer aux algorithmes qui nous capturent ?
En même temps, l’actualité est peuplée de réactions incessantes aux excès des algorithmes, ce qui montre bien que notre contrôle distribué sur les réseaux fonctionne en partie. Reste, comme l’exprime Evgeny Morozov, à trouver des solutions qui soient plus satisfaisantes que la seule mobilisation en ligne. Les géants de l’internet n’offrent pas beaucoup de place aux utilisateurs dans les traitements dont nous sommes tributaires. C’est à nous de la construire pour que les algorithmes rendent du pouvoir à l’utilisateur plutôt qu’ils ne l’aliènent…
Hubert Guillaud
0 commentaires
Ce n’est qu’une instance de plus d’une société hyper-normative, c’est tout. Le consumérisme nous débite des injonctions à longueur de journée et fait tout pour ringardiser les déviants, c’est-à-dire ceux et celles qui n’acceptent pas béatement toutes les imbécillités du système. Alors une censure de plus…
« accepter les règles que nous imposent les algorithmes »
Ho, hé !! il me semble qu’il y a toujours (encore) quelqu’un derrière les algorithmes, non ?
Et ce quelqu’un s’est largement servi à la grande distribution de connerie humaine.
Alors c’est ces gens et leur idéoloogie totalitaire qu’il faut dénoncer, et non les algorithmes foireux derrière lesquels ils se planquent.
A quand la photocopieuse ou l’appareil photo qui décide de ce que son propriétaire a le « droit » de reproduire ?
La seule question valable:
Qui contrôle Google, Apple et consorts ?
La seule réponse valable dans un monde « libre »:
Ben, leurs actionnaires !
Qui a mis en place les premières base de données ? Et cela bien avant l’invention de l’ordinateur.
Un petit indice, c’était un peu avant la seconde guerre mondiale. Il me semble.
Quels ont été leurs usages ?
La normalisation est l’essence même de l’informatique !
bonjour,
Celui qui rédige un algorithme est maître à son bord, il concote la meilleure des recettes pour accéder au meilleur des plats…
Mais ne choisit-il pas en fonction des contraintes qui lui sont données ?
Contraintes de ses actionnaires, de son patron, de sa logique et de sa propre citoyenneté…
Je pense même qu’il existe une poésie de l’algorithme, « une algopoe »…
Alors ne faudrait-til pas y porter un regard plus critique et développer une expertise à même de juger de la tolérance de cette écriture numérique qui peut à la fois nous aider et nous nuire.
Aux aveugles de ce nouveau monde il faut croiser regards afin de constuire cette déontologie de l’écriture des algorithmes.
Pourrait-on faire autrement sans heurter le modèle d’affaires de la Silicon Valley ?
Que voilà une mauvaise question !
N’est ce pas plutôt aux modéles d’affaire à être conformes à ce que nous en attendons et en phase avec notre mode d’expression…
Quand à « Lolita », qui raconte effectivement une histoire que certains pourraient juger scabreuse, il leur suffit de ne pas la lire.
Sur le Net tout devrait donc être policé d’avance par des systémes automatiques ?
Je ne pense pas que ce soit une question de qualité des algorithmes, l’idée en elle même est détestable, la censure automatique est encore pire que la censure qui en aucun cas ne saurait être systématique (à moins d’interdire une grande partie des classiques).
Ce qu’on voit à l’oeuvre ici n’est pas inéluctable mais résulte de la façon dont Internet est « piloté » sous des prétextes faussement moralisants pour devenir de plus en plus inégalitaire. D’un coté le « user » avec ses capacités limitées, de l’autre une machinerie ultra puissante qui l’espionne et le guide, avec une finesse de plus en plus grande; qui prend pour lui toute sorte de décisions et le met devant le fait accompli. Qu’il est loin le temps de la « contre-culture » de l’autonomie et de la créativité. Comme se rapprochent la « novlangue » et « le meilleur des mondes ».
@tous… N’oublions pas trop vite que les algorithmes, les mêmes qui censurent, servent aussi à des choses bien utiles, comme éliminer le spam des commentaires, trier ce qui est du niveau de l’injure… nettoyer les résultats de recherche des sites et images pornos qui les inonderaient sinon… Des opérations plus que nécessaires pour automatiser les milliards de traitements à faire.
Pour ma part, je pense de plus en plus que ces sociétés devraient être obliger de lister les facteurs sur lesquels s’appuient leurs algorithmes. Et que, comme le souligne Morozov, nous avons besoin de gouvernance extérieure sur ces acteurs qui ont une mainmise sur ces nouveaux élargissement de l’espace public, avec de vrais instance de régulation où les utilisateurs sont associés.
Les algorithmes changent aussi les paroles des chansons.
Tout ce long texte argumenté pour n’aller que dans une seule direction : demander le contrôle (la surveillance systématique) des algorithmes qui nous empoisonnent la vie, parce qu’ils nous contrôlent. Parce que Google est puissant, et qu’on se sent tellement petit devant lui, tellement incapable d’être entendu, tellement…
Tellement mal informé qu’on en vient à parler si longuement d’un sujet qui nous échappe entièrement. Qu’est-ce qu’un algorithme, monsieur Guillaud, pouvez-vous le définir ? Amalgame par amalgame, vous mélangez tout si bien que vous passez totalement à coté de votre sujet. Dommage.
Et bien je vais vous le dire : un algorithme « est une suite finie et non-ambiguë d’instructions permettant de donner la réponse à un problème » (cf. Wikipedia). Une réponse, à un problème. Autrement dit, les algorithmes sont autant la source de votre problème, que la prose l’est. Vous me suivez ?
Jamais vous n’employez le mot « statistique », alors que c’est ce qui gouverne la complétion automatique, comme chacun sait. Brent Payne n’a pas « piégé » un « algorithme », il a pesé sur une statistique (le seul qui a été piégé, c’est lui-même, par son erreur d’interprétation).
Et demander l’ouverture de ce qui fait toute la valeur d’une entreprise, sous prétexte que tout le monde l’utilise est irrecevable. Est-ce que la formule du Coca-Cola est ouverte ? Bien sûr que non.