Les nouveaux risques (et opportunités) des entreprises

La transformation induite par le numérique bouleverse le fonctionnement des entreprises, on le sait. Les défis sont innombrables et s’accumulent. Sans vouloir être exhaustif, en voici 4 qui nous ont semblé particulièrement… stimulants ou effrayant. C’est selon.

Risqués, les grands projets informatiques ?

Les risques associés aux grands projets informatiques sont largement sous-estimés, estime une étude évoquée par la Technology Review.

En 2003, le fabricant américain de vêtements Levi Strauss a pris la décision de mettre à niveau son système d’information global devenu fragmenté et désuet. Le projet qui envisageait un passage à un système unifié a été budgété pour 5 millions de dollars et les avantages se promettaient d’être énormes… Mais très vite, ça a été l’enfer, soulignent Bent Flyvbjerg et Alexander Budzier de la Saïd Business School de l’université d’Oxford au Royaume-Uni. Par exemple, Wal-Mart, l’un des plus gros clients de Levi Strauss, a exigé que ce système se connecte de façon transparente à son propre système de gestion de la chaîne d’approvisionnement, ce qui a généré un ensemble imprévu de problèmes. Quand le nouveau système a été mis en marche, l’entreprise a découvert qu’elle ne pouvait pas honorer les commandes et a dû fermer trois centres de distributions aux Etats-Unis pendant une semaine. En 2008, cinq ans après le début du projet, la société en était à 193 millions de dollars d’investissement dans le système informatique.

Cet exemple cauchemardesque a mis un temps l’entreprise à genoux. Mais ce type de problème est beaucoup plus commun qu’on ne l’imagine estiment Flyvbjerg et Budzier qui ont réalisé la plus grande étude mondiale des initiatives industrielles sur les technologies de l’information jamais réalisées en examinant les budgets, les performances et les coûts réels de 1 471 projets IT. Le surcoût moyen d’un projet informatique est de 27 % estiment les chercheurs en conclusion de leur recherche. Mais, un projet sur six subit un dépassement de 200 % !

« Cela met en évidence le véritable écueil de ce type d’initiatives. Elles ne sont pas particulièrement sujettes à des dépassements de coûts très élevés. Mais une proportion inhabituelle des projets génèrent des dépassements massifs. » Cela signifie que ne se baser que sur le dépassement moyen des coûts est insuffisant. « Les projets informatiques sont maintenant tellement grands et ils touchent tant d’aspects de l’organisation qu’ils posent désormais des risques singuliers. Ils peuvent faire sombrer des sociétés entières, voire des villes ou des Etats », estiment, peut-être avec un peu de catastrophisme, les deux chercheurs, comme se fut le cas avec le nouvel aéroport de Hong Kong dont les coûts informatiques se seraient élevés à quel que 600 millions de dollars. Pour les chercheurs, ce n’est qu’une question de temps avant qu’une grande entreprise n’échoue dans les prochaines années en raison d’un projet informatique devenu hors de contrôle. En tout cas, visiblement, un projet sur six semble déjà en dehors de tout contrôle !

Risqués, les réseaux sociaux ?

Ce n’est pas le seul domaine d’ailleurs dans lequel les spécialistes semblent particulièrement catastrophiques. Michael Fire de l’université Ben Gourion en Israël a utilisé l’information accessible sur les réseaux sociaux pour reconstruire la structure de sociétés et en identifier les lacunes relationnelles et organisationnelles, rapporte la Technology Review. En fouillant le web social, l’équipe de chercheur a montré (voir l’étude) qu’elle pouvait reconstruire la structure d’une entreprise et utiliser des algorithmes de détection de communautés pour reconstruire leur structure organisationnelle. Les chercheurs ont ainsi identifié un groupe d’employé d’une entreprise presque entièrement coupée du reste de l’organisation parce qu’ils faisaient tous partis d’une start-up rachetée dont l’intégration avait visiblement échoué. Un outil d’analyse qui peut être un moyen d’identification des difficultés ou des forces d’une entreprise, que ce soit pour elle, comme pour la concurrence. Une méthode qui pose en tout cas la question de l’usage des médias sociaux par les employés et de leurs conséquences.

Mais ce n’est pas le seul risque que courent les entreprises avec les réseaux sociaux. D’après une étude du cabinet de conseil Gartner, faute d’objectifs bien définis au départ, seuls 10 % des projets de déploiement de réseaux sociaux d’entreprises réussissent, rapporte Zdnet. Selon le Gartner, si les entreprises ont de plus en plus tendance à déployer des solutions de réseaux sociaux, dans une grande majorité des cas, ceux-ci s’avèrent rencontrer un taux d’échec cuisant. Pour Anthony Bradley du Gartner, trop souvent, l’entreprise espère y développer quelque chose de positif, une communauté par l’interaction des participants, sans savoir exactement quoi. Pour le Gartner, il demeure essentiel de définir un but, un objectif préalablement. « L’organisation ne fournit pas une cause convaincante autour de laquelle une communauté pourrait se former et être motivée pour y allouer du temps et y transmettre des connaissances. En d’autres termes, le but fait défaut », commente le cabinet. Préciser la communauté cible d’un projet de collaboration social, définir la nature de la collaboration et les bénéfices attendus sont des préalables indispensables.

En fait, remplacer les échanges par e-mail par un réseau social (qui est l’une des motivations à l’essor des réseaux sociaux d’entreprise) n’est pas toujours très efficace, rappellait déjà l’année dernière Cécile Demailly pour 01.net. Les tentatives d’Atos pour éradiquer l’e-mail en entreprises que détaillait un récent article du Financial Times, où celles avortées d’Intel ou Deloitte, montrent que ce n’est pas si simple.

Risqué, l’externalisation des communications ?

Et si la solution était ailleurs ? Stanford News rapportait récemment une intéressante recherche, pour lutter contre l’infobésité de nos messageries en entreprise : utiliser des filtres humains pour permettre aux managers de gagner en efficacité. Le chercheur de Stanford, Nicolas Kokkalis, du Groupe Interaction homme-machine, a donc utilisé Mechanical Turk (et ses clones) pour proposer à 600 cobayes d’une entreprise de faire filtrer leurs e-mails par des personnes extérieures à leur société.


Image : capture d’écran d’email Vallet permettant de voir l’action des opérateurs et la transformation des e-mails en liste de tâches.

Le problème bien sûr est que l’accès à la boite mail est vécu comme quelque chose de très personnel. Il y transite nombre de données très privées : messages personnels, numéro de compte bancaire, etc. Le logiciel mis en place permettait aux utilisateurs de contrôler les e-mails auxquels l’assistant délocalisé avait accès (par exemple, bloquer ceux provenant de la famille, d’amis ou de la banque) et d’enregistrer pour contrôle éventuel toutes leurs actions. En retour de leurs lectures, les assistants délocalisés produisaient des listes de tâches à accomplir. Pourtant, à mesure que l’expérimentation avançait, les utilisateurs ont peu à peu élargi l’accès des opérateurs humains, allant jusqu’à leur ouvrir la gestion de leurs mails privés, afin que les choses importantes y soient traitées également. Nombreux ont également informé leurs assistants d’éléments de contextes privés importants (comme leur emploi ou leur ville natale), afin que le traitement des mails soit plus efficace. « La vie privée et la sécurité sont toujours négociées, si dévoiler votre vie privée vous procure un avantage, alors le plus souvent vous êtes près à y concéder », rappelle l’un des chercheurs responsables de l’expérimentation, Michael Bernstein.

Est-ce que cette étude va faire revenir les secrétaires et assistants pour aider les cols blancs à gérer l’information comme les productions qu’ils doivent rendre et qui sont désormais, bien souvent, de leurs seules responsabilités ?

Le résultat des études menées montre qu’un assistant capable de traiter une vingtaine de boîtes mail permettrait d’optimiser le coût du service et de le rapatrier en interne plutôt que de le confier à des services d’externalisation. « Un grand nombre des exigences de la vie quotidienne nécessitent une créativité que les machines n’ont pas encore », estime Scott Klemmer du groupe Interaction homme-machine de Stanford.

Le service est désormais accessible à tous, sous le nom de GmailVallet. Si vous l’utilisez, préviennent les chercheurs, vous n’avez aucune garantie de sécurité.

Risqué, l’analyse de l’information ?

Autre sujet qui concerne également les entreprises, la compréhension de leurs données. Plus que savoir si l’importance croissante des données en entreprise va conduire à une nouvelle répartition des rôles entre le directeur technique, le directeur informatique et le directeur des données, comme le soulignait Christophe Auffray pour Zdnet, la question pourrait surtout être de comment rendre ces données exploitables, décisives pour faciliter la prise de décision de l’entreprise. Dans un récent et synthétique rapport (.pdf) pour la Harvard Business Review, Tom Davenport, responsable de la Chaire des technologies de l’information et du management du Babson College, et auteur de nombreux livres dont Analytics au travail : des décisions intelligentes pour de meilleurs résultats, revenait sur l’importance de l’analyse des données pour l’entreprise.

Pour lui, la plupart des organisations ont des quantités massives de données, mais elles ne parviennent pas toujours à l’utiliser de manière significative. Comment faire parler les données pour identifier les objectifs stratégiques et les décisions tactiques à prendre ? Pour Davenport, l’analytique doit aider à prendre de meilleures décisions. Elle doit induire une boucle de rétroaction (comme l’expliquait Simon Chignard en évoquant l’open data), c’est-à-dire, que les données doivent permettre d’améliorer l’action des organisations.

Si on constate des investissements majeurs des entreprises dans la collecte et la conservation des données, celles-ci ne sont pas toujours utilisées pour prendre de meilleures décisions. Les mesures de la prise de décision et leurs processus sont bien souvent en mauvais état, estime le spécialiste. Pour développer leurs capacités d’analyses des données, les entreprises doivent améliorer leurs données, investir dans l’analyse de celles-ci, leurs dirigeants doivent intégrer la culture de l’analyse des données pour prendre des décisions (dépasser leurs intuitions par la mesure des faits), ils doivent déterminer des cibles stratégiques pour faire porter leurs efforts d’analyses sur celles-ci et enfin, ils doivent développer les capacités d’analyses dans leur organisation même, par l’embauche de spécialistes. « Le but de l’analyse des données doit être de prendre de meilleures décisions », insiste Davenport.

Dans un autre article pour le réseau de blogs de la Harvard Business Review, Tom Davenport donne un exemple parlant, en s’intéressant au tableau de bord mis en place chez Procter&Gamble. Si vous voulez faire un bon usage de la visualisation de données en entreprise, estime-t-il, la standardisation est plus importante que la créativité.


Image : la salle de conférence de Procter&Gamble via Tom Davenport.

Procter & Gamble a institutionnalisé la visualisation de données comme principal outil de gestion sur les postes de travail de quelque 50 000 employés qui ont accès à un « cockpit de décision ». Le but de ces tableaux de bord est d’aider les décideurs à comprendre rapidement ce qu’il se passe dans l’entreprise. Ici, la visualisation de données doit refléter la stratégie d’une entreprise tout en restant simple et commune à toute l’organisation, c’est-à-dire que les formats d’analyses doivent être communs, même si les données peuvent être différentes d’un pays à l’autre ou d’un secteur à l’autre par exemple. Parmi les outils mis en place par P&G, figure ainsi une visualisation qui montre les marchés sur lesquels les produits de P&G sont plus ou moins en concurrence (la couleur rouge indique que la part de marché est faible, la couleur verte qu’elle est forte).


Image : la carte des produits de P&G qui montre les marchés sur lesquels les produits de P&G sont plus ou moins en concurrence.

Pour Tom Davenport, c’est la créativité à l’élaboration de ces tableaux de données qui va animer demain la réussite des entreprises. Choisir les bons indicateurs, les bonnes visualisations, extraire les bonnes données… Le tableau de bord de l’entreprise est assurément, lui aussi, l’un des enjeux de l’entreprise demain. Un de plus.

Hubert Guillaud

À lire aussi sur internetactu.net

0 commentaires

  1. C’est gentil mais si vous mettez ces 4 risques au même niveau alors qu’ils touchent des domaines (et présentent des risques ou des opportunités) très différents alors autant citer le 5ieme qui est la panne de réseau ou électrique.

  2. Si ces risques ne sont pas au même niveau, ils ne concernent pas non plus les mêmes personnes dans l’entreprise. Certains risques sont issues d’une décision dont les conséquences sont mal évaluées, d’autres sont inhérant au processus même de décision qui est inadapté, d’autres à la nature humaine et son essence, … bref, les causes ou les dérapages ne produisent pas les mêmes conséquences …
    En ce qui concerne le risque lié à la maitrise du processus de décision (celui que je maitrise le mieux) le recours à un analyste qui pourra mettre en place un flux continu d’information traitées (sélectionnées, triées, validées, évaluées, mise en perspectives, …) sera souvent bénéfique à l’organisation.
    Le spectre des solutions est large et doit être mis en cohérence avec la taille et les enjeux de l’entreprise … de la solution mutualisé à quelques centaines d’euros par an à la fonction intégrée à plusieurs milliers d’euros, chacun pourra y trouver son bonheur … à condition de poser les bones questions :):)