Combien d’information consommons-nous ?

Schéma de nos consommations de médias dans la journée calculés en temps passéLes lieux communs voudraient que la télé, la musique et les jeux vidéos nous aient depuis longtemps détournés du monde écrit. Pas si sûr, répondent des chercheurs du Centre pour l’information globale de l’université de Californie : nous lisons plus de mots que nous ne le faisions avant les nouvelles technologies.

Alors que la lecture était en déclin sous la concurrence de la télévision, celle-ci reprend du poil de la bête grâce aux nouvelles technologies, explique l’étude (.pdf) de Roger Bohn et James Short sur la quantité d’information que consomment les Américains – une étude qui fait bien sûr référence à celle menée en 2000 et 2003 par Hal Varian et Peter Lyman.

Les Américains ont englouti quelque 3,6 milliards de teraoctets d’information en 2008, soit 11,8 heures d’information par jour et par personne (contre 7,4 heures en 1980) : autant dire que nous sommes soumis à un flot d’information continu. Nous consommons en moyenne, tout média confondu, quelque 100 500 mots et 34 gigaoctets par jours.

Schéma de l'évolution de la lecture selon le nombre de mots que nous consommonsLa radio et la télévision dominent toujours nos consommations d’information, en nombre de mots consommés (60 %). Mais les ordinateurs et les jeux vidéos comptent pour 55 % du volume de données que nous consommons à la maison. Un tiers des mots et plus de la moitié des octets que nous consommons sont désormais « interactifs ».

La bonne nouvelle est que 36 % de l’information que nous consommons provient de mots que nous lisons chaque jour, quel que soit le support. Et ce pourcentage est plus important qu’il ne l’était il y a 30 ans, quand l’internet n’existait pas !

Via Wired.

À lire aussi sur internetactu.net

0 commentaires

  1. Un comptage typiquement nord-américain bien discutable.

    Si maintenant je disais qu’une image vaut mille mots..

    Cela n’a pas de sens.

  2. Le mot « consommer » est plutôt mal choisi ici…

    Ce que nous cherchons et pouvons consommer sur internet tiens plutôt de ces notions plus abstraites de confiance, de qualité, de nouveauté.

    Enfin, ce n’est que mon avis, mais l’orientation de ce genre d’étude me semble inepte, basé sur des données mal conceptualisées.

  3. J’ai toujours pensé que l’écrit était le moyen le plus efficace de brasser et exploiter l’information. Et d’ailleurs, il suffit d’observer n’importe quel eye-tracking de site média pour voir combien le regard fixe les images pour se fixer sur l’écrit. Pardon pour cette vision productiviste, mais à l’ère des travailleurs de l’information, de l’infobésité, je trouve ces résultats rassurants.

  4. Je constate avec regret une erreur récurrente chez Internet Actu (il faut bien qq défauts, c’est par ailleurs un si bon média) : prendre des chiffres et données US, et faire exactement comme si cela était à 100% transposable & applicables à l’Europe.
    « Les Américains ont englouti quelque (…) : autant dire que nous sommes soumis à un flot d’information continu. » !? Partez-vous du principe que nous sommes Américains ? Je n’ai rien contre nos amis du nouveau monde, mais chacun que, sociologiquement, Europe et Amérique divergent de plus en plus sur de nombreux. Aussi le côté américano-centriste de Internet Actu devient génant. On retrouve ce travers dans beaucoup de vos papiers (vous semblez vouer un quasi culte aux chercheurs US, dont Dana Boyd, que pero je trouve sans intérêt…). Je tenais à vous le signaler avec sympathie, avant que cela ne me détourne de vos écrits, souvent fort pertinents par ailleurs.
    Bonne journée.

  5. Les chiffres et données américaines ne sont pas transposables ni applicables à l’Europe, bien sûr. Cette étude, visiblement, n’est d’ailleurs pas sans défauts. Néanmoins, dans notre sélection, elle nous a semblé intéressante, car elle faisait quelques affirmations qu’on ne trouve pas ailleurs ou pas souvent.

    Personnellement, sur le flot d’information auquel nous sommes soumis, je ne suis pas sûr qu’il y ait de grandes différences pour les habitants de la plupart des pays développés. La globalisation des comportements n’est-elle pas en route ? 😉

    Le côté « américano-centriste » d’InternetActu est, me semble-t-il, assez général dans la presse High-Tech où l’essentiel de l’information provient des Etats-Unis – aussi et beaucoup parce que l’information y est très accessible (peu de barrière de langue notamment). J’ai bien peur que cela ne change pas demain, hélas.

    Enfin, oui, on aime beaucoup danah boyd. Comme quelques autres, et pas seulement parce qu’ils sont américains, mais parce qu’ils sont accessibles et SURTOUT, parce qu’on les trouve intéressants.

  6. Ce qui pourrait être intéressant

    se donner les moyens de faire la même recherche en Europe en demandant le protocole de recherche de l’Université qui l’a faite. Peut-être une mission intéressante pour InternetActu avec l’aide d’une ou plusieurs universités.

  7. Non mais dans l’idée, si cela menait à une réflexion plus poussée autour du sens de tant de mot, de ce qui pour nous importe, là ce serait plus sociologique, qu’un simple nombre lancé en l’air.

    J’ai souvent du mal avec la sociologie anglo-saxonne, car j’ai toujours l’impression de lire des rapports de personnes émerveillées par un outil nouveau qui devrait nous ouvrir de nouvelles dimensions de compréhension de nous-même, alors que je trouve justement cet outil pauvre et réducteur.

    Combien de mot pour donner du sens en anglais ? En français ? en japonais ? c’est une forte différence je pense.
    Quel sens, ensuite ? peut-on donc quantifier que j’ai eu 2 informations à la lecture de 20 mots, véritablement ? Quel niveau de lecture avoir ?
    ça manque de facteurs para-linguistiques parfaitement subjectifs, qui rendent à mon sens ces études caduques.

    Je pense à des exemples très simples : les fautes d’orthographe, ou l’écriture sms de certain forum, ou encore la syntaxe, la grammaire, l’emploi de certain champs lexicaux, qui sont autant d’indice précieux sur l’auteur d’un message, sur l’objet de celui-ci, sur le but de sa rédaction, etc… qui ne peuvent être compté en nombre de mot, et qui sont soumis à la personnalité du lecteur, à son savoir.

    Si encore, on pouvait faire marcher des algo d’analyse (je pense au caduque TAIGA de la dgse, ou encore les analyseurs d’image utilisés afin de créer des architectures des réseaux d’information par la PJ et la DST), on pourrait s’approcher d’une étude plus intéressante : quand est-ce qu’une information apparait sur la toile, à quelle vitesse est-elle relayée, comment, par qui, combien de fois, qui la lit, et à quel degré est-elle accessible, etc.

    J’espère en éclairer certain sur mon point de vue.