L’avenir de la vie privée est de la maîtriser

On ne le sait que trop bien, le numérique bouleverse la vie privée. A Lift, c’est également ce qu’ont essayé de nous expliquer les intervenants convoqués sur ce thème, portant un discours différents des cris d’alarmes habituels.

La valeur de la vie privée est de nous permettre d’avoir une vie publique

Daniel Kaplan, délégué général de la Fing, et auteur du récent Informatique, liberté, identité, explique : “il y a quelque chose qui ne marche pas. La vie privée revient souvent à la fin des problématiques qu’on soulève, comme quelque chose contre lequel tout le monde se heurte”. On a du mal à appréhender ce qui a changé, ce qui pourrait changer entre nos pratiques et notre vie privée. Pourtant, c’est à ces changements qu’il faut s’intéresser. « Les données personnelles sont aujourd’hui l’une des matières premières de l’économie numérique, elles permettent de construire des relations, elles sont la substance des services et des produits », à l’image des barres de chocolat personnalisées (YouBar) que nous présente Daniel Kaplan dans sa présentation. « Nos lois en matière de vie privée sont anciennes. Elles étaient certes prophétiques, mais elles ont toutes entre 30 et 35 ans. Elles se sont adaptées, mais les données personnelles à l’époque, on savait où elles étaient, on savait qui les collectait, on les produisait de manière consciente permettant de déclarer des fichiers, et on savait où elles étaient physiquement stockées. Or, tout cela a changé. Les données personnelles sont désormais des données qui ne le sont plus. Il suffit d’en recouper quelques-unes pour pouvoir nous réidentifier. Elles sont produites par des objets qu’on achète ou utilise ou portons, elles sont produites par les autres (qui parlent de nous, nous étiquettent) et par nous. Elles sont des sous-produits de toutes les activités humaines qui ont un substrat numérique. Elles ont tendance à se dupliquer tant et si bien qu’on ne sait plus où elles sont. »

Des barrières sont en train de sauter, explique Daniel Kaplan. « Les yeux des caméras de surveillance qui nous regardent nous font désormais nous sentir en sécurité. Mark Zuckerberg dit bien que la norme sociale a changé. La question de la vie privée est une question du passé, affirme-t-il. Mais est-ce si vrai ? Que font véritablement les gens ? »

C’est ce qu’on appelle le paradoxe de la vie privée, souligne Daniel Kaplan en montrant la baisse des requêtes sur le mot privacy dans les requêtes que nous faisons sur Google Trends et la montée du terme dans Google Actualité. Dans nos pratiques, cela n’a plus d’importance, mais dans nos angoisses, la disparition de notre vie privée nous inquiète.

« Pourrait-on regarder d’un peu plus près ce que les gens font en vrai ? C’est beaucoup moins simple qu’on le croit quand on regarde l’enquête SocioGeek. » L’étude Sociogeek s’intéressait à savoir ce que publieraient les utilisateurs de réseaux sociaux pour entrer en relation avec d’autres. « Les gens ne dévoilent pas tout dans n’importe quelle circonstance, les gens tentent d’évaluer le risque. Nous sommes très loin d’une espèce de dévoilement massif irréfléchi où les gens nous montreraient tout d’eux sans discrimination. Il y a à chaque moment des stratégies qui s’expriment. On ne montrera pas notre souffrance, notre tristesse, la nudité, la maladie, la nudité de nos enfants. Mais d’autres valeurs de différenciation sont fortes : on montre ce qui est important pour soi, ce qui nous implique comme si je suis supporter de foot ou fan d’un groupe de rock. Et si cela choque celui à qui cela s’adresse, cela signifie que cette personne ne nous intéresse pas. On travaille notre présentation en fonction du résultat qu’on en attend.

Les gens ne sont pas si inconscients que cela en ligne en ce qui concerne leur vie privée, ce qui ne veut pas dire qu’il n’y ait pas de réelles vulnérabilités. Dans le programme Identités actives de la Fing, on a montré l’importance de maîtriser certaines choses : ce que je montre de moi ou ma joignabilité par exemple… Mais d’autres apports ont une influence sur ce que je suis capable de dévoiler de moi, comme la commodité, le fait qu’on puisse gagner du temps ou le fait de pouvoir entrer en relation avec les autres, valorisant ce que je suis, ce que je sais faire, voir me permettant de me connaître moi-même. » Toutes ces motivations travaillent ensemble et permettent de revisiter la vie privée, explique Daniel Kaplan. « Se protéger, quand la vie n’est pas en jeu, n’est pas une motivation suffisante. Les protections légales ne suffisent plus. »

« Ce qui mérite d’être défendu, c’est la vie privée comme base de l’autonomie personnelle. C’est la vie privée qui me permet de revenir sur mon expérience pour décider ce que je veux faire. La vie privée est une tête de pont pour se projeter. La valeur de la vie privée est de nous permettre d’avoir une vie publique. La protection et la projection de soi sont si liées dans les aspirations, qu’elles nécessitent de repenser les outils qui doivent nous permettre de réaliser nos aspirations. La société doit offrir à ses membres des lois et de règles pour protéger la vie privée, mais nous devons également équiper et outiller les individus pour atteindre la capacité à se projeter. Projeter, Enseigner. Mettre en capacité. Face à ces objectifs, certains outils existent, d’autres nécessitent néanmoins d’être mieux regardés », explique Daniel Kaplan en décidant de consacrer un peu de temps à trois dispositifs qui lui semble mériter de l’attention.

kaplanetaliialiftfrance10
Image : Adriana Lukas, Daniel Kaplan et Alma Whitten sur la scène de Lift France répondant aux questions des journalistes après leurs interventions, photographiés par Benjamin Boccas.

« En France, nous parlons beaucoup de droit à l’oubli. Il n’y a pas de traduction anglaise dans les discussions anglo-saxonnes. Le net peut-il oublier ? Ce n’est bien sûr pas si simple. Le flou est une démarche intéressante par rapport à cette question, car on n’arrive pas nécessairement à supprimer toutes les informations. Les chercheurs qui ont travaillé sur le lifelog, les processus permettant d’enregistrer notre expérience personnelle, envisagent de créer des dispositifs d’enregistrement complet. Mais la mémoire se constitue en oubliant, floutant, intervertissant ce qu’on enregistre. Quand nous nous souvenons, nous réécrivons ce dont on se souvenait. Peut-on inscrire dans nos dispositifs techniques des méthodes similaires au fonctionnement de notre mémoire ? Pourrait-on avoir des capteurs et des bases de données qui oublieraient d’enregistrer des données, qui ne soient pas capables de répondre à toutes les demandes ? Cela permettrait surtout d’installer un principe d’incertitude radical par rapport à la masse d’information disponible. Il y a dans ces idées des outils à imaginer à l’image de ceux qu’imaginent des vendeurs d’alibis. »

Deuxième exemple, les hétéronymes. « Nous avons plusieurs identités, mais ce sont des pseudonymes temporaires le plus souvent. Peut-on transférer la valeur de notre personnage vendeur sur eBay ou de maître de guilde dans World of Warcraft en le valorisant ailleurs ? Pourrions-nous avoir des personnalités durables et riches existant dans de multiples univers, disjointes de notre identité civile. L’hétéronymat n’est pas qu’un pseudonyme, mais une personnalité disjointe de nous. Pourrions-nous prendre au sérieux cette idée et la creuser ? », nous invite Daniel Kaplan.

« Enfin, pourrions-nous voir l’idée de l’ePortfolio, qui permet de référencer, pointer les éléments formels qui sont des preuves de nos compétences : diplômes, emplois, mais aussi ce que les gens ont dit de bien de vous, nos hobbys, nos talents… pour en créer des vues différentes selon à qui l’on s’adresse ? L’utilisateur aura la possibilité de projeter ce qu’il aura envie de dire. Il faudrait passer du droit d’accès et de rectification aux données pour les supprimer ou les corriger, à un droit d’accès et de récupération. Au lieu de contrôler, pourrait-on obtenir ce que d’autres organisations savent de moi pour mieux me connaitre, pour mesurer mon empreinte carbone, et me permettre de créer des outils d’analyses personnelles permettant de mieux les exploiter, d’en faire quelque chose ? »

« Il va falloir éduquer les enfants aux dangers de l’internet, répète-t-on souvent. Mais comment un prof quinquagénaire peut-il apprendre Facebook à un ado de 15 ans ? Le sexe, ça rend malade nous apprenait-on déjà il y a 20 ans dans les cours d’éducation sexuelle… Sauf qu’on oubliait de nous dire que ce n’était pas que cela, mais aussi du plaisir et de l’amour. Pour mieux montrer aux parents ce qu’est Facebook pour les enfants, il faut s’intéresser aux compétences que ces outils permettent de développer. Facebook apprend à savoir ce qu’on montre ou pas de soi, apprend à gérer des conflits ou des problèmes… Facebook apprend des compétences nécessaires au fonctionnement de la société d’aujourd’hui. Là aussi, pris sous cet angle, nous pourrions faire des progrès dans l’apprentissage de la gestion de notre identité, en en voyant les valeurs positives plutôt que les risques. »

Et Daniel Kaplan d’inviter les participants à la prochaine édition de Lift : « Venez à Lift 2011 en nous disant comment vous avez créé de la valeur à partir des données personnelles ». On voit bien que nous serons les mieux à même de donner toutes leurs valeurs à nos données.

La vie privée, c’est l’autonomie !

La vie privée n’est pas morte, elle est essentielle pour mon autonomie et mon identité, explique Adriana Lukas. « La vie privée s’appuie sur le besoin de l’utilisateur en ligne d’être le point d’intégration des données qu’il partage, car l’individu est le meilleur juge de ses besoins en terme de vie privée. En dehors des cercles sociaux les plus proches, il nous faut comprendre les conséquences du partage d’information. Mais quand ce contrôle n’est pas entre nos mains, nous n’avons pas de prise sur ces conséquences. Nous ne savons pas le plus souvent comment notre vie privée est exploitée par d’autres. »

La vie privée repose sur le comportement (ce que je veux partager), la propriété (le contrôle des données) et ce que les autres peuvent faire avec nos données, explique Adriana Lukas dans sa présentation. Elle ne se résume pas au secret que je ne veux pas qu’il soit révélé. « Facebook est devenu un bouc-émissaire facile (en partie pour de bonnes raisons), parce qu’il ne nous donne pas l’autonomie nécessaire à la maîtrise de notre vie privée. Or, pour la contrôler, il nous faut des outils, des systèmes de gestion de la vie privée dont nous soyons maîtres.

LIFT France Privacy

C’est cette idée qu’il y a derrière le projet Mine et le concept de VRM (Vendor Relationship Management). Ce dernier s’appuie sur les règles du Cluetrain Manifesto qui analyse les marchés comme des conversations et des transactions. « Dans un marché, on sait établir une relation avec un marchand qui parfois se transforme en transaction. Il faut pouvoir gérer les transactions et relations selon nos propres termes. Alors que le plus souvent, le marchand a plus de contrôle dans la relation que le client. » Les principes du VRM crééent une relation volontaire entre client et marchand : les clients sont nés libre et indépendants, rappelle la liste des règles. Ils contrôlent leurs propres données et assignent leurs propres termes aux services qu’ils utilisent, ils peuvent exprimer leurs demandes librement et surtout, le manifeste affirme que les clients libres sont plus précieux que les clients captifs. Le VRM consiste à apporter aux clients des outils pour les rendre indépendants, alors que les outils d’implications sont tous différents et tous fournis par les vendeurs. L’idée est de rééquilibrer le pouvoir entre clients et vendeurs, et d’offrir aux clients des outils de gestion de la relation vendeur, comme ce dernier dispose d’outils de gestion de la relation client.

« Les données personnelles ne sont plus ce qu’elles étaient. Sur le web social, on génère tellement de données sur tellement de plates-formes que notre identité est devenue profondément fragmentaire… Tous les outils que nous utilisons nous permettent de faire des choses. Mais peut-on capter, manipuler nos données avant que qui que ce soit ne puisse le faire à notre place ? Nous avons besoin d’un endroit où déposer nos données pour en faire ce qu’on veut, en y ajoutant de la valeur que nous seuls maîtrisons. On a envie d’en savoir plus de nos données pour en apprendre sur soi : savoir ce qu’on a acheté sur Amazon, connaître nos consommations d’informations selon les sites qu’on fréquence le plus assidument, etc. Avant d’être sociales, on a envie de nos données pour soi. »

Adriana Lukas a lancé le projet Mine en Open Source pour répondre à ces besoins-là. L’idée est de permettre de stocker des éléments de nos choix et les partager, les exporter, les fouiller, les conserver… sur quelque sujet que ce soit et de la façon dont on le souhaite. On peut développer des applications, générer des flux de données partageables en définissant les personnes auxquelles elles s’adressent, créer des flux personnalisés… « L’utilisateur doit pouvoir être autonome des plates-formes », insiste Adriana Lukas. Sur Mine, on peut créer des fils RSS en décidant ce qui est publié, mais également qui pourra y accéder. On peut personnaliser ses fils selon ses récepteurs. « Cela vous donne un contrôle de vos données, une maîtrise. On pourrait donner une adresse à une banque et cesser de l’alimenter quand on souhaite en changer par exemple. C’est une première expression d’une interface sur laquelle on peut agir, qui permet de mesurer son comportement, de voir les données qu’on partage. Ainsi pour une amie qui apprécie de faire du shopping, j’ai créé un fil qui s’alimente automatiquement de données et sur lequel je peux adresser des tags, des données d’achats provenant de multiples sources , me permettant de vérifier visuellement ce qu’elle va recevoir, si j’ai un doute sur ce qu’elle reçoit. L’idée est d’utiliser une plate-forme permettant à l’utilisateur d’être maître de tout ce qu’il publie. Selon les tags que j’introduis dans ce que je partage, cela est distribué dans tel ou tel fil RSS, à destination de moi seul, de mes amis ou de tous… Je peux valider à chaque moment lequel de mes amis reçoit une information, à quels tags ils sont abonnés… »

Quand les gens verront ce type d’application, accessibles et utilisables facilement, peut-être comprendront-ils que la maîtrise de leurs comportements est à portée de main, espère Adriana Lukas. La vie privée n’est rien d’autre que l’autonomie, rappelle-t-elle, et celle-ci doit offrir la possibilité de gérer le plus finement possible ses propres données.

Et Google ?…

Alma Whitten est responsable du département vie privée et sécurité de Google. Spécialiste de la question (dans sa thèse Making Security Usable (.pdf), elle s’est penchée sur la conception d’une méthodologie pour la création de logiciels de protections qui puissent être maîtrisés par des utilisateurs ordinaires) et notamment de l’impact des facteurs humains sur la sécurité information, elle fait partie des créateurs de Google Dashboard, le tableau de bord qui permet aux utilisateurs de Google de connaître et contrôler les informations détenues par les différents services de Google.

Plus que de redonner aux gens le contrôle de leurs données, Alma Whitten parle de redonner aux gens le pouvoir ! Reste qu’elle n’en a pas vraiment fait la démonstration. En tenant un discours assez convenu et très corporatiste (« la mission de Google est d’organiser l’information pour la rendre accessible à chacun de nous »), elle a rappelé les 5 principes que Google avait définis (vidéo) à l’occasion de sa journée d’étude sur la vie privée :

  • Google doit fournir les meilleurs services produits à ses utilisateurs ; nous ne cherchons pas à utiliser l’information, mais d’identifier ce que ça apporte aux utilisateurs ;
  • développer des produits innovants qui reflètent les standards et les pratiques les plus dures en terme de vie privée ;
  • rendre transparente la collection des données personnelles, établir des systèmes et interfaces pour cela ;
  • donner aux utilisateurs les choix éclairés en terme de protection de la vie privée ;
  • être un serviteur responsable de l’information que nous détenons.

Et Google détient de nombreuses données, rappelle la chercheuse : nos logs (qui ne sont pas connectés aux comptes Google explique-t-elle), mais également nos recherches, nos images, nos lectures, les données issues de Chrome, les cartes qu’on consulte…

Google ne s’en sert pas pour faire des recherches sur les individus, au contraire. Ces données sont utilisées pour de l’agrégation, c’est-à-dire comprendre la sagesse des foules, ou plutôt les comportements des foules à l’image des Google Trends et notamment son application pour le suivi de la grippe aviaire qui a permis d’identifier un foyer de grippe deux semaines avant que les autorités ne l’apprennent. Ces données doivent aussi permettre aux gens d’accéder aux analyses de leurs propres données (notamment avec l’historique de navigation qui prend en compte désormais l’adresse IP de connexion pour renforcer la sécurité du compte et qui devrait permettre prochainement d’effacer son historique non plus seulement sur son ordinateur, mais aussi sur les serveurs de Google ou le programme Ads Preference Manager grâce auquel « Google cherche à rendre son modèle économique plus participatif en invitant les utilisateurs à affiner les publicités ciblées »). « Nous avons un intérêt partagé sur le pouvoir et la puissance des données, mais nous sommes profondément d’accord avec Daniel Kaplan : chacun devrait contrôler ses données ». Google souhaite faire revenir plus d’information vers l’utilisateur final explique encore Alma Whitten, notamment via les interfaces de programmation Google Apps montrant par là même combien la firme de Mountain View a compris qu’on pouvait créer de la valeur en permettant aux gens d’être plus maîtres de leurs données… De la valeur non seulement pour les utilisateurs, mais aussi pour Google.

À lire aussi sur internetactu.net

0 commentaires

  1. « notamment avec l’historique de navigation qui prend en compte désormais l’adresse IP de connexion pour renforcer la sécurité du compte et qui devrait permettre prochainement d’effacer son historique non plus seulement sur son ordinateur, mais aussi sur les serveurs de Google »

    Serait il possible d’avoir le transcript de cette phrase car il y’a une ambiguite. Web History permet dors et deja d’effecer des recherches associees a un compte Google. Neanmoins, ces recherches persistent dans les logs servers.

    Doit on comprendre que Google va aussi offrir la possibilite d’effacer les recherches enregistrees dans les logs (ce qui serait surprenant compte tenu de la separation actuelle qu’il y a entre les logs et les donnees lies aux comptes Google) ou A. Whitten fait elle allusion a la fonction qui est deja deployee?

    Dans tous les cas, merci pour ce compte rendu.

  2. @Vincent. J’ai bien peur que l’ambiguïté subsiste n’ayant pas accès au transcripts, mais seulement à nos notes, forcément lacunaires. Pas sûr non plus qu’Alma Whitten ait été claire sur ce point. Il va falloir attendre la publication des vidéos des conférénces sur le site de Lift. Je n’ai pas l’impression qu’Alma Whitten ait fait des annonces extraordinaires pour ma part, elle a plutôt beaucoup parlé de fonctions existantes.

  3. Excellente synthèse de l’ensemble de cette problématique de la vie privée sur Internet que je ne cesse de soulever chaque année auprès de mes étudiants, … je m’empresse donc de mettre ce lien sur mon blog !
    Merci
    IDE