RessourcesOutilsFroids
Voilà une question qui me trotte dans la tête depuis quelques temps et qui s’adresse peut-être à des chercheurs en sciences de l’information, à moins que ce ne soit à des statisticiens spécialistes du web ou à d’autres que je n’ai pas identifié.
On constate tous que la masse d’information accessible par le web est de plus en plus importante et cela notamment à cause de blogs comme le mien. Dans le même temps on constate que beaucoup de ces informations « tournent en rond » et qu’elles sont reprises, commentées, développées, analysées,… de multiples fois.
Mon hypothèse (enfin c’est un grand mot) c’est qu’il doit y avoir une règle statistique disant qu’en lisant telle quantité (20%?) de sites, ou fils d’infos sur un domaine on peut être au courant de telle quantité globale (80%?) de ce qui se dit dans ce domaine. Questions:
- Est-ce que la loi de Pareto est vérifiée depuis l’avènement des blogs et autres wikis ou sites de journalisme citoyen?
- Est-ce que des chercheurs s’intéressent à ce sujet (j’imagine que oui)?
- Est-ce qu’ils ont écrit des articles accessibles à un non-statisticien comme moi? Et si oui lesquels?
Se poser une telle question me semble indispensable à l’heure actuelle car on ne peut continuer bêtement à accumuler des fils rss dans nos agrégateurs. Le gain de temps qu’on pouvait y trouver quand on en lisait 50 ou 100 décroît au même rythme qu’on en agrège de nouveaux.
Dave Snowden, chercheur au Cynefin et concepteur d’un modèle particulièrement adapté à ce nouveau contexte, propose de ne pas chercher à vouloir être exhaustif à tout prix. Je suis tout à fait d’accord avec lui pour des raisons exposées dans un précédent billet mais j’aimerai savoir si des sciences « dures » peuvent apporter d’autres éléments allant en ce sens.