Appeler, et non anticiper, les usages !

Anticiper les usages est devenu le nouveau credo de l’innovation. Pourtant, force est de constater que les résultats ne sont pas au rendez-vous. Et si plutôt que des les anticiper, nous nous efforcions de les rendre possibles !

Comment, lorsque l’on travaille dans une entreprise technologique ou dans un laboratoire scientifique, rendre compte des choses bizarres, inattendues, frustrantes ou excitantes, qui se produisent lorsque les objets technologiques rencontrent les gens et les fameux « usages  » ?

La réponse classique consiste à mieux étudier les besoins, approfondir les études marketing, tester, voire associer des utilisateurs au processus de conception – pour tenter d’anticiper les usages. Mais les résultats s’avèrent souvent décevants.

Et si l’on transformait en opportunités les surprises qu’apportent les usages ? Et si l’on réorganisait la conception et le design des objets techniques de manière à ne pas avoir (trop) besoin d’en anticiper les usages ? Peut-on imaginer des approches industriellement et commercialement viables, qui partiraient de ce principe ?

Afin de lancer la discussion, proposons 5 axiomes (une version longue de cet article permettra à ceux que cela intéresse de mieux comprendre d’où ils viennent) :

  • Il n’existe pas de régime stable de l’usage vers lequel on devrait tendre, mais plutôt une invention constante de manières d’habiter les technologies, d' »interprétation » (au sens musical) des instruments et produits technologiques ;
  • L’usage potentiel (voire imaginaire) a autant d’importance que l’usage effectif ;
  • L’usage collectif a autant d’importance que l’usage individuel ;
  • Il existe rarement des « besoins » clairement identifiables et exprimables auxquels il s’agirait de répondre, mais un dialogue permanent (qui doit lui-même forger son langage) entre : des techniques ; des traductions en produits, applications, services ou outils ; des appropriations de toutes sortes ; des formes de production et d’échange ; des modèles économiques ; des savoir-faire et des connaissances ; des imaginaires ; des désirs et des besoins produits par ces interactions ; et ainsi de suite dans un boucle sans fin.
  • Beaucoup de « produits » technologiques devraient être pensés au moins comme des outils, des instruments, voire des infrastructures, c’est-à-dire comme des supports pour l’action et l’interaction, et non comme des objets aux usages bien identifiés.

Cela signifie-t-il qu’on peut tranquillement se débarrasser de la question des usages et rentrer dans nos labos, produire nos technos et les lancer dans la nature ? Evidemment, non. Il s’agit au contraire de faire deux choses assez profondément nouvelles :

1- Ne serait-ce que parce que l’idée d’une nouvelle technologie ou d’une nouvelle application, et l’accord pour en financer le développement, procèdent eux-mêmes d’un imaginaire qui ne prend pas seulement sa source dans l’exercice de la raison, il est nécessaire de s’engager d’emblée et surtout, toujours, dans un dialogue intensif avec ceux qui seront demain les partenaires, les financeurs, les intermédiaires, les acheteurs, les utilisateurs, en les considérant tous comme des acteurs de l’innovation et même de la découverte scientifique.

2- Et puis ouvrir, non parce que c’est moralement bien, mais parce que cela offre à un grand nombre d’autres innovateurs la possibilité de trouver les sources de valeur qui résident dans ce que l’on produit, et que l’on ne détectera jamais seul. Rappelons encore une fois qu’aucun des usages majeurs de l’internet grand public d’aujourd’hui n’a été conçu dans les grandes entreprises ou les grands labos spécialisés dans les TIC. Et admettons cela, non pas comme un échec, mais comme la marque d’un nouveau régime d’innovation.

Cela signifie donc, par exemple :

  • Ouvrir autant d’interfaces de programmation et d’accès aux données que possible,
  • Ouvrir autant de morceaux du code ou des schémas techniques qu’il est possible sans se mettre en danger,
  • Créer délibérément des « prises » destinées à faciliter l’adaptation le bricolage, la personnalisation, le détournement, la recombinaison… de ce qu’on a produit,
  • Penser les produits autant comme des plates-formes d’innovation que comme des objets finis – et s’intéresser aux idées, connaissances, valeurs et compétences qui émergent autour de ces produits-plates-formes…

De telles démarches sont aujourd’hui à l’œuvre dans bien des endroits, parfois consciemment (Google, les robots domestiques reprogrammables, les jeux vidéo modifiables, les produits électroniques « pas finis » qu’imagine Philips Design (.pdf)…), parfois moins. Elles sont au cœur du succès du « web 2.0 », qui repose beaucoup moins sur des percées techniques que sur des méthodes d’innovation. Elles commencent à trouver leurs théoriciens et leurs méthodologues – on pense à la « conception innovante » d’Armand Hatchuel, ou encore au Minatec Ideas Laboratory.

Mais elles sont loin d’être entrées dans nos cultures d’entreprises et d’institutions. Ouvrons-leur les portes !

Daniel Kaplan

À lire aussi sur internetactu.net

0 commentaires

  1. Bonjour,

    J’aimerais apporter un élément de réflexion a propos de cet article, particulièrement pour la partie :

    « Ouvrir autant d’interfaces de programmation et d’accès aux données que possible,
    Ouvrir autant de morceaux du code ou des schémas techniques qu’il est possible sans se mettre en danger,
    Créer délibérément des “prises” destinées à faciliter l’adaptation le bricolage, la personnalisation, le détournement, la recombinaison… de ce qu’on a produit,
    Penser les produits autant comme des plates-formes d’innovation que comme des objets finis – et s’intéresser aux idées, connaissances, valeurs et compétences qui émergent autour de ces produits–plates-formes…  »

    Lors de mes recherches sur la programmation, j’ai mis en évidence ce principe suivant :

    Un programme, une procédure, une méthode, une fonction… DOIVENT avoir une zone d’entrée sortie de données.

    C’est un problème fondamental et général qui est malheureusement trop souvent négligé. Aucun code ou partie de code ne peut devenir a terme « indépendant » s’il ne dispose pas de zones d’entrée sortie. Les Skins d’applets comme un lecteur de contenu multimédia ne sont en fait que la partie visible de ce point fondateur.

    De même, pour rendre un objet autonome (sur le plan information), il devra nécessairement être pourvu de zones E/S spécifiques.

    Cela veut bien évidemment dire aussi que les informations qu’il y trouvera devront lui être adaptées s’il ne dispose pas de moyens d’analyse du flux a la volée, de même les infos de sortie pour être exploitable devront avoir un minimum de méta informations pour être analysable dynamiquement par un autre objet.

    On en arrive alors a des objets dont, soit la fonction unitaire est ultra légère et qui s’expriment en langage machine (a définir de manière consensuelle…) et qui ont besoin d’un interpréteur (le driver), soit en langage de haut niveau, et qui sont capables de prendre et exécuter en retour des informations a la volée (cartes de traitement d’image…). Et dans un tel cas la logique minimale est tout de même sans commune mesure avec le « simple » capteur de température !

    Pour y arriver, il faudra néanmoins que la langue commune de base soit établie, et qu’elle se dépouille rapidement de son côté rude et binaire proche de l’hexa, pour entrer dans une communication nettement plus axée « ALPHA », ce qui sous tends des « processeurs alpha » et non plus binaires.

    La révolution de l’informatique et de la robotique est a ce prix.

    Un processeur alpha une fois fondu en série reviendra au même coût qu’un processeur actuel, tout en modifiant fondamentalement la programmation et les inter échanges. Une révolution très profonde sera alors en marche, et il apparaîtra alors clairement l’absolue nécessité des zones d’échange.

    Une zone d’échange est très intéressante, car elle remets en question les Peek, Pokes, et autres espionnages ou modifications illégitimes de code. Une zone E-S sur chaque objet informatique deviendra comme une passerelle vers Internet : un firewall Hard incontournable et la sécurité y gagnera de manière considérable.

    Et la question « ouvrir » un objet sans danger ne se pose plus de la même manière : on peut avoir un code incassable, mais qui a la propriété de savoir interpréter des demandes qui n’ont pas nécessairement été prévue a l’origine, dans la mesure de ses capacités, telles que définies par le programmeur. Il suffit alors que l’objet soit doté au départ de capacités « non verrouillées » pour que les utilisateurs puissent alors l’inclure dans leur flux de données et s’en servir d’une manière éventuellement non prévue a l’origine… Sans que soit nécessaire le fait d’en livrer le code source.

    Actuellement le niveau de l’informatique et des capteurs a toute les peine du monde à passer du système nerveux vertébro-spinal et des dispositifs rachidiens, au cortex et a l’intelligence supérieure. C’est essentiellement parce que la programmation que l’on mets en place est essentiellement du niveau HARD. Aucun programmeur ne devrait se soucier de savoir ou va se stocker le flux de données qu’il va générer par son programme et se réserver une place mémoire, la gérer, prévoir les débordements… Ces choses sont du niveau hard et devraient rester traités au niveau hard, pas par le programmateur final qui attends une action homme machine, machine homme.

    Quand un programmeur d’intelligence artificielle se soucie de vidanger la mémoire ou de l’endroit ou est stocké un code, il perds son temps a réinventer l’eau tiède. Le système devrait lui donner ses fonctions VITALES comme standard évident.

    Et cela ne se fera que lorsque les processus de gestion de la mémoire seront traité a part, avec des processeurs hard dédiés, a qui on ne donnera pas un ordre impératif de type peek@(12345), mais « je veux le contenu de la réponse de la fonction machin ». et les autres périphériques a l’avenant, disque, scanner, imprimante, clavier, souris, vidéo, usb, flus blue tooth,… etc…

    Nous ne devrions plus parler de « programmation », terme qui est utilisé pour les choses traitant « proche du hard » (proche l’hôpital), mais de « méta programmation », dans un environnement ou chaque objet disponible pour le système -y compris l’horloge interne par exemple ou la mémoire vive- est un objet complet, fini et autonome, capable de répondre a une requête, d’émettre spontanément une information, ou de recevoir une consigne de fonctionnement.

    FJ Deminière
    Directeur informatique chez EDS France.

  2. Article passionnant au regard des modèles d’innovations que l’on peut rencontrer dans les schémas industriels ou officiels et des enjeux que nous avons à relever.

    Il me semble que la notion d’imaginaire est une notion forte, qui nous emmène plus loin que les théories « adaptatives » autour de l’usabilité ou de l’accessibilité qui théorisent une sorte de « chausse-pied  » ou de « prothèse normative » pour interfacer des produits finis avec des humains.

    l’Imaginaire est en effet un moteur de l’innovation technologique et non technologique et un indicateur fort pour une organisation.
    Elle est la substance et le moteur d’avancement pour le constructeur, le producteur, l’innovateur ou le créateur, mais l’imaginaire produit aussi une représentation collective, commune et fédératrice des directions pour une société ou une entreprise_un programme de voyage, ensemble vers le futur_.

    « Créer délibérément des “prises” destinées à faciliter l’adaptation le bricolage, la personnalisation, le détournement, la recombinaison… de ce qu’on a produit, »

    Cette ambition relève d’une démarche expérimentale, comme celle du design numérique, ou du hacking, qui conduit par le détournement, l’accident créatif, ou le bricolage à de nouveaux scénarios, à l’innovation, à l’invention ou à la création dans les champs spécifiquement humains et sociaux.

    « Penser les produits autant comme des plates-formes d’innovation que comme des objets finis – et s’intéresser aux idées, connaissances, valeurs et compétences qui émergent autour de ces produits-plates-formes… »

    La démarche expérimentale et l’utilisation de ces « NéoSemiProduits » permettront de produire de nouvelles applications ou de nouveaux écosystèmes humains. Le bon vieux Lego et le Meccano sont de retour, chic.
    Cette démarche est parfaitement illustré à différents niveaux par les écosystèmes PHP, ou Flickr, ou par le couple proce55ing et Wiring qui permet à des designers ou des artistes de produire simplement des dispositifs hard et soft impensables, il y a encore 5 ans.

    « Beaucoup de “produits” technologiques devraient être pensés au moins comme des outils, des instruments, voire des infrastructures, c’est-à-dire comme des supports pour l’action et l’interaction, et non comme des objets aux usages bien identifiés. »

    Cette réflexion s’inscrit dans le débat ouvert par Bernard Stiegler sur la différence entre pratique et usage. Elle induit une notion a mon sens plus forte que l’utilisabilité qui est celle de l’appropriation, c’est a dire d’un usage qui se transforme en pratique, et de la finition du produit par l’utilisateur, qui est l’ultime étape de customisation, c’est à dire d’une personnalisation a posteriori, que je pourrais appeler la « post personnalisation » ou la « perso production ».

    Ces démarches, réflexions et projets sont au cœur des activités de Nodesign . (NO=Nouveaux Objets)

    Pour finir, je vais me permettre de déclarer Daniel Kaplan comme un des plus fins théoricien du Design ;=))
    Merci à lui

    Jean Louis Frechin – Nodesign.net