En science, la mesure ultime de la valeur académique est le nombre d’articles publiés où vous êtes crédité en tant qu’auteur. Il y a des subtilités qui comptent : où vous vous situez dans la liste des auteurs et si d’autres citent vos publications. Mais il est difficile pour ces facteurs de surmonter le poids des chiffres bruts. D’autres choses, comme les subventions et les promotions, comptent également beaucoup. Mais le succès dans ces domaines dépend souvent d’une longue liste de publications.
C’est pourquoi une publication publiée mercredi par Nature est significative : elle décrit des données qui indiquent que les femmes sont systématiquement exclues de la liste des auteurs de publications scientifiques. L’écart entre la participation et la publication persiste même après la prise en compte de divers facteurs d’avancement professionnel. Et cela explique en grande partie pourquoi la science a un problème appelé » pipeline qui fuit « , où les femmes abandonnent la recherche à des taux plus élevés à chaque étape de leur carrière.
Faire l’équipe
Il est assez facile d’analyser les données et de constater que les femmes sont sous-représentées dans les listes d’auteurs jointes aux articles scientifiques. Mais comprendre pourquoi est un défi de taille. Cela pourrait résulter de la sous-représentation historique des femmes dans certains domaines, de la discrimination ou de différences d’effort et d’engagement. Déterminer quel(s) facteur(s) y contribue est un défi car cela implique d’identifier une population invisible : les personnes qui devraient figurer sur la liste des auteurs mais qui ne le sont pas.
Pour compliquer les choses, il n’y a pas de règles claires concernant le type de contributions nécessaires pour recevoir la paternité. Les membres d’un laboratoire s’entraident souvent de manière informelle, et il n’y a pas de limite claire où ce type d’aide atteint le point où il exige la paternité. En conséquence, une grande partie de la politique entre dans le choix de qui se retrouve sur la liste des auteurs, et souvent beaucoup de mauvais sentiments parmi ceux qui ne sont pas retenus.
Si vous interrogez un scientifique sur son historique de publication, il aura invariablement une histoire sur un article pour lequel il aurait dû être crédité mais qui a été laissé de côté.
Le grand défi auquel sont confrontés les chercheurs à l’origine du nouveau document consiste à déterminer comment faire la distinction entre l’équivalent de la politique de bureau et l’existence d’un biais généralisé. L’élément clé des données habilitantes provient de l’Institut de recherche sur l’innovation et la science de l’Université du Michigan, qui recueille des données sur plus de 100 campus faisant partie de 36 universités de recherche. (Par exemple, le système de l’Université de Californie est une université, mais il compte neuf campus, dont UCLA, UC Santa Cruz et UC Berkeley.) Ces données incluent toutes les subventions détenues par les chercheurs, tous les employés qui accordent des aides financières et leur emploi. titres.
Les données ont permis aux chercheurs d’identifier 128 859 personnes faisant partie de près de 10 000 équipes de recherche individuelles. Ces noms ont ensuite été croisés avec des bases de données de publications scientifiques, reliant les individus à près de 40 000 articles et plus de 7 500 brevets. Cette collecte de données a permis aux chercheurs de répondre à une question plus ciblée : si une équipe scientifique publie avec succès, existe-t-il des modèles selon lesquels les membres de l’équipe sont les auteurs de ces publications ?