La vie privée en contexte ou la vertu de la réciprocité

privacyincontextHelen Nissenbaum est chercheuse à l’université de New York. Elle intervenait récemment dans un séminaire du programme des Technologies de libération de l’université de Stanford (blog, @Liberationtech) dans une petite salle à moitié vide, raconte Alexis Madrigal pour The Atlantic. Pourtant, Helen Nissenbaum n’est pas n’importe qui. Elle est l’auteur de La vie privée en contexte ainsi que d’autres articles sur le sujet comme « Une approche contextuelle à la vie privée en ligne (.pdf)« . Mais surtout, elle a joué un rôle essentiel dans la récente déclaration des droits pour protéger la vie privée des consommateurs en ligne récemment publiée par la Maison Blanche. Le mot « contexte » (faisant référence à son travail) est cité 85 fois dans le récent rapport de la Commission fédérale du commerce américaine « Protéger la vie privée des consommateurs à l’ère des changements rapides » qui vise à établir un cadre de confidentialité à long terme tant pour les législateurs, les entreprises et les citoyens.

Compte tenu de l’influence intellectuelle dont elle dispose, il est important de comprendre comment ce qu’elle dit sur la vie privée est différent de ce que disent d’autres théoriciens, estime avec raison Alexis Madrigal. Les craintes vis-à-vis de la vie privée en ligne sont souvent liées au fait que les gens ont l’impression de perdre le contrôle de leurs données ou d’être débordés par celles-ci. Pour Helen Nissenbaum, le vrai problème repose sur le caractère inapproprié du flux d’information en raison de la médiation technologique. Selon elle, expéditeurs et récepteurs des messages communiquent différents types d’informations avec des attentes très spécifiques quant à leur utilisation. En fait, les violations de confidentialités ne se produisent pas quand trop de données s’accumulent ou quand les personnes ne peuvent pas les maîtriser, mais quand l’un des récepteurs ou l’un des principes de transmission change.

L’approche de Nissenbaum peut paraître simple, mais elle suggère néanmoins une autre approche face aux problèmes que les gens rencontrent avec leurs données sur l’internet.

Vous vous souvenez des polémiques liées au lancement de Google Street View en Europe. Des Allemands notamment se sont opposés à ce que les voitures de Google prennent en photo leur maison. Beaucoup de personnes pourtant ne voyaient pas où était le problème, la rue étant depuis longtemps un espace public. Mais, explique Nissenbaum, si certaines personnes ont été choquées, c’est parce que le passage de la voiture Google enlevait un élément clef du dispositif informationnel : la réciprocité ! Quand je suis dans la rue, je peux voir qui me voit et savoir ce qu’il s’y passe. Alors que dans Google Street Map, je ne sais plus qui me voit. Le rapport de confidentialité est transformé.

Pour Nissenbaum, la vie privée n’est pas binaire. Une chose n’est pas ou privé ou public. La mise en contexte, la situation sociale, est une donnée importante de l’équation. Que dites-vous à votre banque que vous ne pourriez dire à votre médecin ? Que dites-vous à un ami que vous ne diriez pas à votre frère ? Ce que vous permettez à votre voisin de savoir ne veut pas dire que vous le permettriez aux voitures (et surtout aux utilisateurs) de Google Street View. Ces différences contextuelles dans le partage de l’information ne sont ni bonnes ni mauvaises, estime Nissenbaum : elles sont des normes sociales.

nissenbaumhelen
Image : Helen Nissenbaum invitée d’un petit déjeuner du Stanford Center for Internet & Society.

Dans le paradigme de Nissenbaum, le fait que plus d’informations soient disponibles à notre sujet n’est pas en soi une mauvaise chose. En fait, exposer les principes de transmission dans une situation donnée peut encourager les gens, tant individuellement que collectivement, à partager plus et à atteindre une meilleure situation de partage. La réglementation de la vie privée doit fournir des moyens clairs pour que les entreprises puissent profiter du suivi de données, et cela ne peut avoir lieu que via un cadre éthique qui en pose la contrepartie.

Aujourd’hui, les gens sont prêts à partager leurs données contre des services gratuits qu’ils obtiennent sur le web. Mais bien souvent, les gens ne savent pas ce qui est fait de leurs données, ni même que des entreprises captent des données qu’ils n’ont pas l’impression de céder. Rien que sur le site de The Atlantic – un simple site d’information – plus de 48 outils de suivi sont en action chaque mois pour recueillir des données des utilisateurs qui le fréquentent (146 sur le New York Times, plus de 200 sur le Drudge Report ou le Huffington Post…). Comment l’utilisateur que nous sommes pourrait-il donc prendre une décision raisonnable sur la façon dont ces outils de renseignements pourraient être utilisés quand on dénombre plus de 50 outils sur le moindre site web ?

Pas étonnant que certains évoquent des labels pour éclaircir les politiques de données ou les conditions générales d’utilisation… Mais ils sont difficiles à mettre en oeuvre. Helen Nissenbaum ne pense qu’il soit possible d’expliquer simplement l’écosystème de la publicité en ligne. Pour elle, le paradoxe de la transparence est insoluble. Elle propose une tout autre solution : importer les normes du monde réel dans le monde numérique.

Quand vous allez à votre banque, vous avez des attentes quant à ce qui pourrait arriver de vos communications avec cette banque, et ce, que vous y soyez physiquement, au téléphone ou en ligne. La banque peut utiliser vos données pour faire des opérations bancaires, mais elle ne devrait pas pouvoir vendre vos données à un concessionnaire automobile qui cherche des clients avec beaucoup de disponibilités financières par exemple. La recommandation de la FTC est d’ailleurs la même : laisser les entreprises collecter des données, mais les obliger à dire aux utilisateurs quand ils font des choses avec ces données qui sont incompatibles avec le contexte d’interaction initial. Bien sûr, cette recommandation laisse une grande latitude d’appréciation aux entreprises… et donne bien peu de pouvoirs aux citoyens.

Reste, conclut Madrigal, que le paradigme de Nissenbaum n’en a pas moins des limites. Il repose sur des attentes, des normes sociales non formulées… Et il est souvent difficile de comprendre quelle peut-être la norme dans une situation donnée. En défendant la transparence radicale et en renvoyant la question de la vie privée aux oubliettes, Mark Zuckerberg n’affirmait-il pas que la norme sociale concernant la vie privée avait changé ? A nouveau, le problème du paradigme de Nissenbaum repose surtout sur des appréciations qui sont pour l’instant bien éloignées de contraintes légales et claires.

A se demander si, plus que le contexte, ce n’est pas la notion de réciprocité qui semble ici la plus essentielle ?

Hubert Guillaud

À lire aussi sur internetactu.net

0 commentaires

  1. Il me semble que la notion de réciprocité doit aussi être entendue comme un contrôle mutuel, notion développée par A Casilli dans ses Liaisons numériques.

    L’avenir, à mon sens, n’est pas dans la protection des données, tâche tout aussi impossible à mener que la protection du droit d’auteur.

    L’avenir est dans le contrôle mutuel de l’usage des données. Lorsque le Web 2.0 permettra l’émergence d’une nouvelle socialisation, la problématique des données personnelles se déplacera vers leur usage.

    Tout individu, toute entité commerciale ou non, qui fera un usage non éthique des données d’un tiers sera suffisamment dévalorisée (socialement punie) par le groupe au sens large, pour lui passer l’envie de recommencer.

    Ce qui pose problème actuellement, c’est l’impunité de ceux qui s’échangent nos données d’achat ou nos réseaux d’amis, et l’obscurité qui entoure ces trafics. Or, cette obscurité sera bientôt aussi intenable que la protection des données elle-même. Une entreprise qui utilisera ces données pour agir contre la société sera mise en faillite, un politique ne sera pas réélu, une administration sera démantelée sous la pression des administrés.

    Donc, la réciprocité est le bon mot, pour commencer, mais cela ira à mon avis plus loin, bien plus loin.

  2. @Dominique Dupagne. Sauf que la punition sociale n’a pas le même impact selon que vous êtes pauvres ou riches, selon que vous êtes utilisateurs ou fournisseurs de services, faible ou puissant… Pour les seconds, la punition légale a toujours eu plus d’impact ;-).

    Mais effectivement, l’obscurité de ce qui est fait de nos données est certainement quelque chose contre lequel nous pouvons (en partie) remédier.

    Le rapport de la FTC évoqué dans l’article pointe ainsi le fait que l’industrie mobile doit apporter aux utilisateurs des solutions pour indiquer clairement les problèmes de confidentialités des applications qu’ils accueillent sur leurs systèmes techniques. Avec les millions d’applications existantes, on devine que ce ne sera pas si simple.

    La Technology Review vient d’évoquer un travail de chercheurs de l’université Carnegie Mellon et Rutgers permettant d’imaginer un système distribué et crowdsourcé d’évaluation du respect des règles de vie privée des applications simplement en faisant lire de manière distribué les CGU des applications, pour en faire saillir l’essentiel. Avant toute installation, un panneau simplifié préviendrait l’utilisateur des problèmes que pose l’application.

    On connait également AppAnalysis qui permet de surveiller comment nos applications utilisent des informations sensibles… Et les chercheurs travaillent à de nombreuses autres applications de ce type. Ce sont bel et bien des outils qui renforcent la réciprocité.

  3. Bonjour,
    Je découvre les travaux d’Helen Nissenbaum à travers cet article et ceux qui se sont fait l’écho de sa présentation et de son influence outre-atlantique.
    Toujours rageant quand on fait une thèse de découvrir que quelqu’un a déjà ouvert une porte qu’on enfonçait avec une certaine fierté…

    Les propositions d’H. Nissenbaum et de Privacy In Context sont très intéressantes : il me semble en effet que le modèle user-centric prédominant aujourd’hui (du côté ingénieurs ou légistateurs) mérite d’être critiqué, car en focalisant la régulation sur le « traitement des données » personnelles, c-à-d une approche informationnelle basée sur des signaux émis par un titulaire à destination de récepteurs (ou capturés par eux), on oublie que la vie privée est « située », contextuelle, que les enjeux diffèrent selon la relation que le titulaire entretient avec celui à qui (individu/organisation) il confie des fragments (personnels, intimes, affectifs, etc.). C’est pourquoi j’avais parlé dans un billet d’envisager au niveau industriel/sociopolitique un modèle pragma-centric, un modèle centré sur la relation (pas seulement un modèle de régulation, ou cadre réglementaire) mais un modèle économique, un modèle conceptuel (informatique), un modèle d’usages, etc…
    Avec quelques nuances :
    – risque de contractualisation de chaque interaction médiatisée par ordinateur, notamment si l’on se place dans le paradigme de la réciprocité, ou du don/contre-don ;
    – risque normatif avec une modélisation de la vie privée, telle qu’on la retrouve dans l’hypothèse des labels ou privacy icons, qui, pour didactiques qu’ils seraient, n’auraient pas la capacité à representer l’éventail des relations entre individus ou entre individus et organisations ;
    A cogiter (j’écris toute une thèse là-dessus…)

  4. Amit Runchal pour TechCrunch évoque le service Girls Around Me, qui utilise les fonctionnalités des mobiles pour créer un service de rencontre géolocalisé… Un moyen de montrer (aux utilisatrices) combien il est important de régler correctement les paramètres de confidentialité de ses applications, pour quelles ne discutent pas par devers soi.

    Mike Loukides pour O’Reilly Radar prolonge le sujet en tentant de l’appliquer aux données. Vie privée et données existent certes toujours dans des contextes sociaux. Si l’application précédente était par exemple, Hackers Around Me, ou Medecins Around Me elle n’aurait certainement pas les mêmes effets (alors qu’elle utiliserait les mêmes techniques). Le problème n’est donc pas le logiciel lui-même, explique Mike Loukides, mais bien le contexte. Comme l’explique Amit Runchal : « La ligne est la suivante : Lorsque vous commencez à parler d’une autre personne sans sa permission, vous faites quelque chose de mal. Lorsque vous créez une autre identité pour eux sans leur permission, vous faites quelque chose de mal. Quand vous faites en sorte que les gens se sentent victimes alors qu’auparavant ils ne se sentaient pas ainsi, vous faites quelque chose de mal ».

    C’est un peu primaire, mais peut-être parlant…

  5. @Hubert Guillaud Ce qui est très intéressant dans la citation d’Amit Runchal, c’est de la projeter avec un niveau supplémentaire.

    1) Parler d’une autre personne sans sa permission c’est mal.
    2) Parler d’une personne qui agit mal en parlant d’une autre personne sans sa permission, c’est donner de la visibilité à cette mauvaise action.

    Si la communication devient massive et globale, si tout le monde parle, un contrôle cybernétique et donc rétroactif de la communication peut se mettre en place de façon naturelle. Une auto-organisation de la protection de la vie privée pourrait alors apparaître. Il me semble que ce n’est pas une utopie, pas plus en tout cas que le filtrage du spam par l’intelligence collective des utilisateurs de webmails.

  6. Il peut s’agir aussi d’une autre habitude. Mon grand-père n’aurait jamais accepté la compilation de données que nous acceptons nous-mêmes (rien que pour les impôts en lignes ou la carte de transport en commun par exemple), et mes enfants accepteront sans doute des stockages et des liens entre données que je trouverais liberticides (ce qui est récupéré à travers les jeux en ligne par exemple).
    @Dominique Dupagne : Quand on voit comment Apple + itunes sont achetés, utilisés, diffusés et lorsqu’on regarde les CGU, on doute que tout ceci puisse s’autoréguler vers moins de récolte et d’utilisation de données d’usages et de données personnelles. C’est pour cela que je parle d’habitude, car ce n’est finalement que s’habituer à un niveau de traçage et ne pas y attacher tant d’importance par rapport aux gains qu’apportent tel ou tel matériel/application.

    Le numérique et Internet permettent à la fois le stockage infini dans la durée, la communication des données récoltées illimitée dans l’espace et le temps. Ces informations sur nous ou ce que nous avons fait, où nous sommes allés sont mémorisées et nous échappent à un tout autre degré que le ragot d’une personne qui vous aura observé à votre insu derrière ses volets.
    La vie numérique nous projette dans une transparence comme une cellule sous le microscope qui ne maîtrise pas qui l’observe, pour quoi ni à quel moment.
    Nous sommes ainsi utilisés comme des pions. Si on ajoute la sensation d’être manipulés, en partie grâce à ces données, pour tel ou tel objectif (mercantile ou politique), on arrive vite à la vision du puceron élevé par les fourmis où l’on tiendrait le rôle du puceron.

    L’idée d’expliciter ce qu’on attend et ce qu’on accepte par rapport à ce qui est récolté et l’utilisation qui en est faite répond effectivement à ce besoin de reprendre le contrôle. Mais je ne pense pas qu’on puisse aller très loin pour la faire aboutir concrètement : comment dire oui ou non à chaque utilisation potentielle de ces données ? Comment les exposer clairement, comment y répondre sans ambiguïté ? Combien de personnes lisent totalement les CGU avant de s’inscrire à un service ? Combien sont prêtes à ne pas s’inscrire si elles trouvent que la confidentialité des données ne va pas assez loin ? Une inscription sur un site en utilisant Facebook par exemple, connecte instantanément le site sur lequel vous vous inscrivez avec tout un tas d’autres sites auxquels vous n’auriez même pas pensé. Sans compter que ces données vous échappent, et vous ne savez même pas par quel canal. Mais qui va abandonner Facebook pour autant ?

    L’idée de réciprocité est pour moi du même acabit. Oui, elle touche je pense le nœud du problème, mais comment s’assurer de quoi que ce soit concernant l’utilisation de ses données et empêcher les fuites ?

    Bref, je pense que l’envie d’utilisation d’applications connectées l’emporte sur le besoin de confidentialité des données qu’elle récupère, et que l’on n’a pas encore atteint la limite au-delà de laquelle les refus d’utiliser de telles applications seront suffisamment nombreux pour freiner l’utilisation et la diffusion des données. Et cette limite elle-même pourrait bien être de plus en plus lointaine à chaque génération suivante.
    Y aurait-il une limite « anthropologique » où se dirige-t-on inexorablement vers « 1984 » ?

  7. En fait, une partie de ce que dit Nissenbaum ne devrait pas nous paraître si nouveau en France : la loi « Informatique et Libertés » s’est toujours intéressée au traitement plutôt qu’à la donnée elle-même. Une donnée peut ou non être collectée et conservée selon sa finalité ; on ne peut pas changer de finalité sans accord de l’intéressé, etc. Ce qui ressemble beaucoup à la notion de « contexte » telle qu’on l’utilise ici. Pourquoi ça paraît neuf aux Etats-Unis ? Parce qu’on part d’une notion assez restrictive de « privacy », conçue comme un « droit d’être laissé tranquille » : tu ne peux pas rentrer chez moi sans mon autorisation, c’est pareil pour les données. « Informatique et Libertés » est une loi sur les libertés, sur ce qui fait qu’on est un citoyen autonome.

    Du coup, je rejoins Hubert sur l’idée que la « réciprocité » est plus importante et plus neuve. Mais alors, poussons-la au bout : la réciprocité ne concerne pas seulement le contrôle mutuel, elle doit aussi porter sur les capacités d’action. Je veux bien qu’une entreprise devienne plus intelligente grâce à mes données, mais je veux devenir plus intelligent aussi ! Si une entreprise possède une donnée sur moi, je veux la même, et pouvoir en faire ce que je veux ! C’est l’idée du projet MesInfos qu’a lancé la Fing, ou du programme britannique Midata.