L'objectif des outils bibliométriques est de faire des comparaisons entre revues, entre chercheurs, entre institutions et de proposer des classements.
Il existe des classements mondiaux des institutions universitaires. Les classements les plus médiatisés sont le classement de l'Université Jiao Tong de Shanghai et le Times Higher Education World University Rankings.
Ces classements, qui entendent mesurer la performance des universités, utilisent un nombre réduit d’indicateurs quantitatifs.
En matière bibliométrique, ils observent la production scientifique des universités (sur base du nombre d'articles ou de thèses) et la citation de ces productions.
D'une manière générale, ces classements défavorisent les institutions européennes parce que, dans les indicateurs utilisés, interviennent aussi des indicateurs économiques, largement favorables aux universités nord américaines.
Pour toutes sortes de dossiers (promotions, projets, financements), le chercheur doit produire une liste de publications. Cette liste est utilisée par les institutions et les bailleurs de fonds pour évaluer son activité scientifique.
Ces listes peuvent être complétées par plusieurs indicateurs.
Il ne faut pas utiliser les indicateurs relatifs à une revue, comme le facteur d'impact (voir plus loin), pour cette évaluation.
Dans l'exemple ci-dessous (figure 4.1), le facteur d'impact de la revue Science est alimenté par quelques articles. Associer un facteur d'impact élevé pour des articles ayant été cités moins de 20 fois, voire jamais, n'a pas de sens.
Figure 4.1. Distribution du nombre de citations des articles publiés dans Science en 2013 et 2014 (Callaway, 2016).
Pour évaluer un chercheur, il n'y a que les indicateurs spécifiques aux articles de l'auteur (le nombre de citations, le H index, le nombre de téléchargements, le nombre de vues...) qui ont un sens.
En 2012, la San Francisco Declaration on Research Assessment (DORA) a insisté sur la nécessité d'améliorer la manière dont les résultats de la recherche scientifique sont évalués. Les différentes propositions sont résumées dans ce poster.
Le récent CRC (Relative Citation Ratio) pourrait aussi être intéressant pour évaluer un chercheur sur base de ses publications (Hutchins et al., 2016). Ce ratio est le résultat de la division du nombre de citations d'un article par le nombre moyen de citations d'autres articles du même domaine. Les autres articles du même domaine sont identifiés à partir de la bibliographie.