Category: Opinions 283 résultats

Echange ou distribution : au coeur du débat

Pour éviter que les hauts débits ne fondent leur croissance sur la destruction de valeur dans les industries de contenus, il faut taxer les débits remontants : c’est, comme nous l’écrivions il y a quelques semaines, l’analyse que font les auteurs de l’étude Contango sur « Les enjeux économiques de la distribution de contenus ». Une nouvelle note (1) décrit par le menu les bénéfices et les conditions de mise en oeuvre de la mesure recommandée par l’étude. Elle présente l’avantage de nous mener au coeur du débat.

Rappelons le raisonnement sur lequel se fonde l’étude. En facilitant la distribution de copies parfaites, la numérisation et le développement des réseaux détruit l’économie de la création. Cette destruction fait partie des facteurs qui attirent les consommateurs vers le haut débit, dont elle subventionne en quelque sorte la croissance. Les mesures techniques (DRM) et judiciaires (poursuite des utilisateurs) comportant des inconvénients notables, la réponse la plus efficace et la plus économiquement vertueuse consiste à tarifer les communications montantes, les données émises par les utilisateurs de l’internet.

Il ne s’agit pas, insistent les auteurs, d’une taxe, mais d’un prix qui serait perçu par les fournisseurs d’accès. L’objectif est de contraindre – par la loi – le système de prix à envoyer les bons signaux au marché, à décourager l’échange et encourager la distribution payante en ligne.

Nous signalions dans l’édito du 27 janvier les principales faiblesses de cette étude : surestimation massive du « transfert d’utilité » des contenus vers l’accès, sous-estimation des facteurs endogènes de la baisse des ventes de musique (fin d’un cycle de croissance du secteur, concurrence d’autres médias, insatisfaction des consommateurs… voir « P2P et musique : quelques approches alternatives« ).

Mais le coeur du débat est ailleurs : pourquoi, au juste, veut-on développer l’internet ? Pourquoi tous les pays, des plus pauvres aux plus riches, en font-ils un objectif politique majeur ? Est-ce vraiment parce que nous avons besoin d’un nouveau réseau de distribution de contenus et de services ? Ou bien s’agit-il de doter la « société de la connaissance » d’une infrastructure destinée à faciliter l’échange, la circulation, la coopération, la création et l’innovation ?

Le choix de l’équipe Contango est clair. Présentant son travail le 1er mars, le directeur de l’étude Olivier Bomsel déclarait :  » La distribution doit être favorisée par rapport à l’échange. L’objectif est de protéger la propriété de la destruction. Il convient de ne pas transformer les biens privés en biens publics (…) C’est une décision d’ordre public et industriel. »

En suivant les auteurs, on présentera également le choix en termes économiques : quelles « externalités » des réseaux considère-t-on comme les plus importantes, d’un point de vue quantitatif et philosophique : le développement de la communication et des échanges (y compris économiques), ou la bonne santé de l’économie actuelle de la création culturelle ?

Le débat est bien posé – c’est le mérite de l’étude. En revanche, la vision des auteurs paraît singulièrement unilatérale. A les lire, l’innovation et la création légitimes ne peuvent provenir que des entreprises culturelles et des grands acteurs installés des télécoms. Que l’évolution des techniques et l’innovation de service associée puisse remettre en question les frontières et modèles traditionnels (2), ne semble pas entrer dans leur cadre d’analyse. Que l’innovation sur l’internet soit presque toujours venue d’ailleurs, d’en-dessous du radar des grands acteurs, ne les trouble pas.

Globalement, pour l’étude – qui traduit sans doute un sentiment largement répandu dans certains secteurs – il ne peut guère y avoir de très bonnes raisons pour les utilisateurs d’émettre des données sur les réseaux. Tout juste la note concède-t-elle des  » exemptions dérogatoires  » en faveur de la communication privée, avant de préciser qu’elles s’appliquent uniquement  » si [les fournisseurs d’accès] s’engagent à contrôler la licéité des échanges  » (s’agit-il alors de communication privée ?) et si ces services sont clairement recensés dans un catalogue qui ne saurait être offert que par les fournisseurs d’accès. Quid, alors, des services indépendants de webmail, de téléphonie, de visiophonie, de messagerie instantanée ?…

Proposons donc une première liste (à compléter dans le forum lié à cet article !) d’usages « remontants » assez incontestables et qui ne relèvent pas de la communication privée : la télé-santé et le maintien à domicile ; les webcams et la télésurveillance ; le télé-enseignement ; la démocratie électronique participative ; les sites web hébergés sur des machines privées (et demain, associés à toutes sortes d’objets) ; les échanges professionnels entre PME ou indépendants abonnés à des accès grand public ; le travail coopératif ; les oeuvres que leurs auteurs ne souhaitent délibérément pas protéger ; les services d’impression de photos numériques ; les jeux en réseau…

En résumé, taxer le débit montant est une proposition centrée sur les problèmes du jour que rencontrent les industries culturelles (et qu’il ne s’agit aucunement de nier), dont le coût social et économique sera sans commune mesure avec ses avantages supposés.

Mais au fond, là n’est pas la question. Ce dont il s’agit dans cette proposition – qui présente l’intérêt d’exposer au grand jour un débat qui n’est pas neuf – est simplement de défaire tout ce qui fait de l’internet un réseau différent de ceux qui l’ont précédé, tout ce qui explique son incroyable développement depuis 20 ans, tout ce qui en fait le formidable support d’innovation qu’il est aujourd’hui. Pourquoi pas ? Le débat n’est pas illégitime, même si l’on pouvait penser l’avoir dépassé. Souhaitons néanmoins que l’appel des auteurs à une « décision rapide » n’incite pas des législateurs pressés (dans tous les sens du terme) à prendre des mesures qu’ils regretteraient bien vite (3).

(1) Olivier Bomsel et Gilles Le Blanc, « Distribution de contenus sur Internet – Analyse économique des remèdes au contournement des droits de propriété intellectuelle » (.pdf)
Site de l’étude Contango

(2) Par exemple, la tarification téléphonique à l’appel, ou les différences entre communications fixes et mobiles – les auteurs développent la thèse un peu étrange selon laquelle le renchérissement de l’internet fixe serait nécessaire au développement de l’Umts…

(3) Le récent rapport du Committee for Economic Development, organisme américain, développe longuement ce risque :  » Les législateurs et les acteurs doivent réaliser que des lois et des règles conçues dans l’urgence pourraient avoir des conséquences inattendues et ralentir le rythme d’innovation et de croissance économique (…) La priorité doit être donnée à la recherche et l’expérimentation de nouveaux modèles d’affaires pour les entreprises de contenu . »

Et n’oubliez pas le service !

Il y a une dizaine d’années, la banque et dans une moindre mesure, la distribution, n’en avaient que pour le « libre-service ». C’était à qui alignerait les automates les plus nombreux et les plus intelligents, dans des surfaces commerciales dont l’antichambre automatisée et le back-office administratif comprimaient toujours plus l’espace dédié à l’accueil et au conseil. Ces entreprises en sont vite revenues : les clients voulaient bien des automates, mais ils demandaient aussi des interlocuteurs.

Avec l’e-commerce, on pensait avoir trouvé mieux encore : le libre-service, sans les mètres carrés ! Le rappel aux réalités fut dur : logistique, risques divers, service clientèle, le commerce électronique ne coûte pas beaucoup moins cher que le commerce en magasins ! Et la confiance ne se gagne, ni ne se garde, sans effort.

L’échec des premières « places de marché » B2B a encore montré que la rencontre et la négociation restaient le coeur des affaires, même si l’on pouvait volontiers demander aux machines d’appliquer ensuite les accords passés entre les hommes. Pourtant, le fantasme des services sans serveurs, des affaires sans hommes d’affaires, est encore vivace – tout particulièrement en France où l’on automatise plus qu’ailleurs, tout en exploitant moins qu’ailleurs les technologies de l’information dans le but de construire un avantage concurrentiel durable (voir [1] et l’enquête du DTI britannique).

Il semblerait que chaque secteur ait besoin de faire son expérience du « tout-self service ». Ce fut le cas de l’e-learning, qui devait permettre d’enseigner sans enseignants ou presque. C’est peut-être aujourd’hui celui de l’e-administration. Un peu partout en Europe, semble régner un consensus sur l’idée que le développement du libre-service, des sites web personnalisés et des téléprocédures, est la mesure naturelle de l’e-administration. Cela va-t-il de soi ? Et si, à la place, on avait choisi d’organiser le back-office de manière si efficace (et si décloisonnée), qu’il deviendrait possible de placer 80 % des fonctionnaires au contact direct (physique, téléphonique et électronique) des usagers ?

Bien sûr, libre-service et service assisté, appuyés sur l’excellence d’un système d’information, ne s’opposent pas nécessairement. Avec l’expérimentation « Allô Service public » (voir l’expérimentation en Haute-Savoie et pour une perspective plus large, l’explication sur le site internet.gouv.fr), le secrétaire d’Etat à la Réforme de l’Etat montre qu’il est possible de chercher un équilibre. Mais c’est encore du téléphone anonyme, limité dans ses prestations, et non ce contact personnel qui reste indispensable dans beaucoup de situations.

Quoiqu’en disent les partisans du « self-service », le transfert croissant de la charge de travail depuis l’entreprise vers son client ou usager relève d’une logique d’économies plutôt que de service, sans même parler de croissance. Il y a, il y aura des réussites d’entreprises fondées sur ce transfert. Mais d’un point de vue systémique, ce mouvement n’est pas tenable : le consommateur-usager a aussi (on le lui souhaite en tout cas) un travail, une famille, des amis et des hobbies, il n’a pas envie de passer son temps sur le web à remplir des formulaires. Il pense peut-être, d’ailleurs, que c’est pour lui éviter cela qu’on a inventé la division du travail…

Parions que dans peu de temps, de nouveaux e-concurrents arriveront sur le marché et se tailleront de beaux succès commerciaux avec un argument en béton : chez nous, les hommes et les femmes ne sont plus derrière l’ordinateur, mais devant (ou à côté). Si vous téléphonez, ils décrochent ; si vous venez, ils vous accueillent ; si vous écrivez un courriel, ils répondent ; et si vous demandez quelque chose de bizarre, ils vous trouvent une solution – aidés, bien sûr, de leur système d’information [2].

[1] Dans les premiers Cahiers Laser (1998, 2000), Philippe Lemoine soulignait déjà ce paradoxe : « un superstore Wal-Mart moyen emploie 450 personnes (…) contre 280 personnes pour le même chiffre d’affaires dans un hypermarché français. Mais alors que les stocks tournent 10,5 fois dans l’année dans un hypermarché français, ils tournent 25 fois dans un superstore Wal-Mart. (…) Le modèle consiste à limiter les à-coups promotionnels, à utiliser la technologie pour accélérer la rotation des stocks et la productivité du capital circulant, puis à investir ces gains « amont » dans du service « aval » afin de mieux servir la clientèle, de mieux la comprendre et de la fidéliser. »

[2] Pas convaincu(e) ? Essayez le service téléphonique de la SNCF (08 92 35 35 35), ou (quand il n’y a pas de queue) les nouveaux services commerciaux des grandes gares, ceux qui sont situés dans des locaux vitrés, sans hygiaphone. Choisissez le jour où vous avez un besoin compliqué. Nous l’avons fait, nous qui achetons en ligne depuis bientôt 10 ans, notamment des billets de train : la comparaison se passe de commentaires. Nous y avons gagné du temps, nous y avons trouvé des tarifs meilleurs et moins contraignants, le tout avec le sourire. Si vous croyez que ceci n’a rien à voir avec la productivité ou avec la recherche du profit, think again, comme disent les Américains.

Le tchat a-t-il de l’avenir ?

Auriez vous cru en lançant votre premier message instantané sur l’internet que ce petit outil malcommode et envahissant – avec ses fenêtres dans tous les sens – deviendrait un jour une application phare de l’internet ? Certainement pas, même si l’instantanéité de l’outil a eu dès l’origine un côté convainquant et fascinant.

Ce sont les adolescents qui ont, les premiers, fait le succès de la messagerie instantanée, d’abord via les salons de discussions ensuite en « individualisant » les relations au sein de leur cercle d’amis. Après avoir envahi l’univers familial et amical (couplée à l’indétrônable webcam), la messagerie instantanée a permi à des millions de personnes de se voir, de s’écrire et de se parler à distance avec une immédiateté qui semblait les rapprocher. Aujourd’hui, c’est dans le monde professionnel que l’utilisation de ces petits logiciels explose, entre collègues distants, mais plus encore entre voisins de bureaux ou entre partenaires de projets. On insiste volontiers sur les inconvénients de la messagerie instantanée, son caractère envahissant ou sa propension à favoriser la surveillance distante. Mais, dès lors que l’on sait en réguler l’usage, il y a aussi une légèreté, une fluidité de l’échange qui apporte beaucoup à la communication au sein de groupes (amicaux ou professionnels). L’échange est synchrone, immédiat, court : c’est-à-dire qu’il vous rend disponible immédiatement du moment où vous êtes connectés. La fenêtre du logiciel n’empiète pas trop sur celles des logiciels sur lesquels on travaille ; on n’a pas besoin d’utiliser un autre appareil (comme le téléphone) ; et la messagerie fournit également un indicateur de présence et de disponibilité qui traduit en permanence la vie de la communauté et de ses membres.

La totale spontanéité offerte par la MI (messagerie instantanée) explique en grande partie l’engouement qu’elle suscite. Pour les échanges rapides entre personnes connectées, l’outil surpasse de loin le téléphone ou le courrier électronique. Moyen de communication privilégié, qui fait apparaître les êtres humains qui composent notre réseau sur notre écran, il semble réservé pour l’instant aux cercles de nos proches, à gérer l’unipersonnel plutôt que le flux. Comme la plupart des outils de communication, il renforce et augmente le nombre de communications qui nous lient aux gens avec lesquels on communique le plus.

Mais cela pourrait changer. En devenant un outil de communication parmi d’autres, la MI semble bien vouloir quitter les berges de la connivence pour traiter le flux, la masse, le nombre. De plus en plus, elle devient un outil de communication entre l’entreprise, ses employés, ses clients et ses fournisseurs, le site et ses visiteurs, l’administration et ses administrés, soi et le monde… Un peu comme le numéro de son téléphone mobile ou son adresse e-mail, au départ réservés à quelques êtres chers, se sont, petit à petit, mis à conquérir le vaste monde.

Outil expressément moderne, il nécessite plus encore qu’avec les forums et l’e-mail de discipliner sa présence, sa disponibilité et son utilisation – ce qui, on le sait, est toujours le plus difficile dans l’appréhension des outils. En faisant vivre concrètement la connexion permanente, la MI peut transformer la disponibilité en un terrible fardeau. Et il n’y a qu’un pas, pour certains, pour voir dans la MI notre futur virtuel : une oreille ouverte en permanence aux pulsations du monde extérieur, une poubelle où se déverserait tous les bruits du monde, c’est selon.

Bien sûr, on peut croire – comme le dessine notre dossier – que les robots seront une solution efficace pour appréhender ces flux. Demain, sur des interfaces de tchat, des robots automatisés bavarderont avec nous et répondront peut-être enfin à nos questions… avant de répondre aux questions de nos propres robots qu’on enverra parcourir les milliards d’interfaces de tchat pour tenter de nous ramener ce saint Graal : l’information qu’on leur aura demandé. A moins que cela ne se termine, un peu comme l’e-mail aujourd’hui : en eau de boudin ! A devoir trier les bons messages entre des centaines de spams et de virus attachés en pièces jointes…

Mais comme ça paraît étrange et paradoxal, vu d’ici, cet avenir où la MI ne se connecte plus qu’à des machines alors qu’il est pour l’instant l’un des rares outils derrière lequel l’humain semble plus présent, toujours prêt à nous étonner au détour d’une nouvelle intervention.

Hubert Guillaud

Internet ou Socialnet ?

L’internet fut créé jadis pour permettre aux ordinateurs de communiquer entre eux. Plus tard, le web est devenu un moyen privilégié pour accéder à du contenu et le partager. Mais, après l’ère du « contenu-roi », nous entrons dans celle de « l’individu-roi ».

L’internet est désormais le moteur – et peut-être bientôt le centre – de nouvelles relations sociales, au coeur desquelles se trouvent les individus.

Cette évolution est perceptible par de multiples aspects. D’abord l’apparition de « communautés sociales en ligne », auxquelles nous consacrons notre dossier, et dont la popularité étonnante fait figure de phénomène de société. Ensuite l’émergence d’une nouvelle forme d’une expression publique, symbolisée par les blogs ou les wikis, et renforcée par de nouveaux outils de partage et de mise en relation de personnes.

La parole est aux individus, qui réagissent, échangent, commentent ou recommandent (des disques, des livres, des spectacles) et se regroupent, spontanément et virtuellement. Le tout avec des outils pour le faire. Le projet FOAF (Friend Of A Friend, http://www.foaf-project.org) vise par exemple à généraliser des fichiers de description pour chaque personne, à placer sur son site personnel. Chaque fichier exprime l’identité mais aussi les affinités de chacun, et peut être lu par un moteur de recherche, pour constituer automatiquement des regroupements par centres d’intérêt communs. Dans la même veine, Audioscrobbler (http://www.audioscrobbler.com) sert à publier en ligne la liste des morceaux de musique que chacun de nous écoute, et à en déduire des rapprochements entre utilisateurs par goûts musicaux communs. Dans l’enseignement et la formation « tout au long de la vie », le rapide développement du concept d’ePortfolio – un « CV étendu, dynamique, établissant des liens à une base de données en ligne, qui contient des réalisations personnelles et professionnelles, des résultats d’équipe, des références et toute preuve de compétence obtenue au cours de son travail et de son apprentissage », selon l’association EIfEL (http://www.eife-l.org) – va dans le même sens.

Reste à savoir si les fondements de principe de cette « nouvelle socialité » sont réels. Après tout, quelqu’un qui lit les mêmes choses que moi, écoute la même musique et partage tous mes centres d’intérêt est-il forcément un « ami » potentiel ? Et les amis de mes amis sont-il forcément mes amis ? L’expérience, dans la vraie vie, semble montrer que non. Et « l’attirance des contraires » prouve même, souvent, que les relations durables entre individus supposent sinon des divergences de vue, au moins des différences de vécu.

Toutes ces tentatives de « communautés sociales assistées par le web » sont donc forcément limitées. Elles ne peuvent prendre en compte la complexité d’un individu, de ses choix et de ses goûts. Je ne suis pas « que » ce que je sais, ni « que » ce que je dis, ni « que » ce que j’aime.

Il n’en demeure pas moins que, contrairement à ce qui se disait il y a quelques années, l’internet est décidément un outil qui contribue davantage à rapprocher les individus qu’à les éloigner. Et finalement, la vocation même du réseau a muté.

Derrière l’internet, réseau d’ordinateurs, il y a toujours eu des personnes et leurs relations entre elles. Désormais, la personne (ou plutôt son ou ses identité[s], sa description, ses productions, ses relations… bref, tout ce qui peut composer son existence sociale en ligne) devient un « noeud » du réseau au même titre que les routeurs IP. Il n’est guère possible de prévoir l’impact d’un tel phénomène, mais on peut sans doute en attendre des évolutions dans les relations sociales et interpersonnelles, de nouveaux modes de rapprochement entre les individus. Voilà qui mérite d’être observé de près.

Cyril Fievet

Le Media Lab du MIT

Par Pascal Chesnais, France Télécom R&D

Mon premier contact avec le Media Lab du MIT a eu lieu il y a un peu plus de 20 ans, quand je travaillais moi-même pour un laboratoire de recherche en France. Nicholas Negroponte me montra les plans d’un nouveau bâtiment dessiné par Ieoh Ming Pei, qui devait abriter le Media Laboratory. Il a ouvert ses portes en 1985 et l’année suivante, j’en suis devenu l’un des étudiants. Par la suite, je suis resté dans l’équipe de recherche et j’y ai fait ma thèse de doctorat. Pendant 13 ans, j’ai vu grandir le Media Lab de plusieurs façons. Aujourd’hui, je travaille au laboratoire de R&D de France Télécom à Boston, et je continue à intervenir pour le Media Lab en tant que sponsor. C’est avec cet angle de vue multiple que j’écris cet édito.

Le Media Lab est situé à l’intérieur du campus du MIT. Cet environnement académique permet d’attirer de multiples talents des quatre coins du monde. Le Media Lab bénéficie d’une position unique au MIT car c’est à la fois un centre de recherche interdisciplinaire et un programme d’enseignement. L’interdisciplinarité signifie qu’il peut accueillir des étudiants dont les parcours sont très variés, et il en va de même pour les professeurs, qui viennent des sciences traditionnelles (physique, biologie, chimie), de l’ingénierie (informatique, holographie…), des arts (graphisme, cinéma…) ou des sciences cognitives. Le Media Lab est le seul centre de recherche du MIT qui a un programme diplômant. C’est une des recettes du succès que le regretté Jerome Weisner (ancien président du MIT) et Negroponte ont concocté quand ils ont co-fondé le Media Lab.

Le Media Lab est organisé en une vingtaine de petits groupes de recherche, dirigés par des chercheurs émérites. Chaque groupe contient six ou sept étudiants dont le cursus est financé au MIT. Ces groupes sont également enrichis par la présence d’autres étudiants (maîtrise) qui participent à temps partiel aux recherches menées. Trois ou quatre groupes partagent des locaux communs, au sein du bâtiment de quatre étages. Le principe est de mélanger des profils différents pour que de nouvelles idées apparaissent spontanément entre les différentes disciplines. Le laboratoire est ouvert 24h/24 aux étudiants et à l’équipe de recherche. Il n’est d’ailleurs pas inhabituel de constater une activité frénétique après minuit. Au Media Lab, la principale activité consiste à fabriquer des choses nouvelles, et la structure le permet, via des équipements haut de gamme destinés à fabriquer sur place tout ce qu’on peut imaginer.

Une saine rivalité existe entre le Media Lab, qui est situé dans l’école d’architecture, et son équivalent au sein de l’école d’ingénierie : le LCS-AI Lab (devenu le Csail, Computer Science and Intelligence Artificial Laboratory). Le fait d’être à l’intérieur de l’école d’architecture permet au Media Lab d’être centré sur les relations entre technologies et personnes, plutôt que de chercher à réaliser des solutions optimales en matière d’ingénierie. Le Media Lab tire partie de la diversité intellectuelle du MIT. Il propose des programmes communs avec des laboratoires d’ingénierie et l’école de Sloan (l’école de Management du MIT). Cela permet aux travaux menés au Media Lab de bénéficier de l’expérience d’ingénierie ou de l’expérience commerciale de ces départements.

Le financement du Media Lab provient de sponsors industriels et de fonds gouvernementaux. Les sponsors peuvent s’impliquer à différents niveaux, le plus souvent en devenant membre d’un consortium, comme « Digital Life« , « Things That Think » ou  » Information : Organized« , qui sont centrés sur des thèmes de recherche qui intéressent directement les industriels. En plus de réunions régulières, les sponsors peuvent rencontrer les chercheurs seul à seul. Ils ont également accès, sans avoir à payer de royalties ou de licences, à la propriété intellectuelle produite durant la durée de leur soutien. Les gros sponsors ont aussi une équipe de recherche présente dans les locaux, à l’intérieur du Media Lab.

Ce sont tous ces éléments qui contribuent au succès du Media Lab. Comparé à la R&D industrielle, le Media Lab est un endroit où l’on peut prendre des risques, puisque cela correspond à la mission académique du MIT d’explorer de nouvelles idées. Les étudiants et les chercheurs sont en prise directe avec les sponsors et peuvent mettre leur travail en perspective très rapidement. Cette capacité à effectuer des démonstrations à de vastes audiences est affectée d’un surnom, « Demo or Die » (faire une démo ou mourir), par contraste entre l’approche du laboratoire et la communication universitaire traditionnelle, « Publish or Perish » (publier ou périr). Les sponsors peuvent rapidement identifier les tendances innovantes et importantes pour leur secteur d’activité et les transférer à leur département R&D pour les industrialiser.

Le succès du Media Lab peut se mesurer aux résultats de recherche publiés, aux thèses, aux contributions aux standards mondiaux, ou aux dépôts de brevets. En outre, les diplômés du Media Lab entrent dans de prestigieux laboratoires de R&D industriels, ou créent des entreprises qui conçoivent des produits innovants.

Au sein du laboratoire R&D de France Télécom à Boston, Pascal Chesnais dirige l’un des groupes de recherche consacré aux interactions de l’utilisateur augmentées d’un contexte personnel, comme des informations relatives à la localisation. Les activités de recherche sont centrées sur la conception de prototypes d’expériences avancées qui peuvent provenir des autres unités France Télécom – Orange, Wanadoo ou téléphonie fixe. Elles illustrent l’opportunité pour un opérateur d’intégrer ligne fixe, ligne mobile et accès internet.

Avant de rejoindre France Télécom, Pascal Chesnais avait fondé et assurait la direction technique de MessageMachines, une jeune pousse basée à Boston, spécialisée dans les services et applications de messagerie avancées. Avant cela, il avait obtenu son Master et son doctorat (Ph. D.) au Media Lab du MIT, après des recherches dans le domaine de la publication électronique et le streaming vidéo. Deux de ses principaux projets au MIT étaient FishWrap, l’un des tout premiers services d’actualités personnalisées sur le web, et Canard, une plate-forme de messagerie communautaire.