Vous êtes assis avec un comité chargé d’une embauche importante; une décision qui aura un impact profond et durable dans votre organisation. On vous a formé à reconnaître vos biais cognitifs pour éviter toutes les situations de favoritisme. Assis avec vos collègues vous êtes bien décidé à ne pas tomber dans le bourbier des biais et vous faites des efforts considérables pour en éviter tous les pièges. Pourtant…
Au moment où la discussion s’engage, quelque chose s’est déplacé. Le candidat le plus expérimenté, le plus cohérent avec les besoins de l’organisation, celui avec le parcours presque parfait est rejeté.
Cette personne coche trop de cases, mais pas celles qu’on affiche officiellement. Elle correspond presque en tout point à ce qu’attend votre biais de similarité, celui que vous avez appris à combattre. Certains de faire la meilleure chose possible, vous choisissez alors un autre candidat.
Le danger de la sur-correction
Je suis un homme dans la quarantaine, conscient que, dans une telle situation, mon biais de similarité pourrait m’influencer et me guider dans la mauvaise direction. Je fais donc cet effort conscient pour l’éviter à tout prix.
C’est précisément là que le problème commence.
Car à force de vouloir neutraliser mon biais, je ne cherche plus à évaluer la compétence avec justesse, mais à éviter une faute morale perçue. La décision cesse d’être guidée par ce qui sert le mieux l’organisation ; elle est désormais orientée par ce qui réduit le plus sûrement le risque de reproche.
Le biais n’est pas disparu, il a simplement changé de signe.
En voulant être rationnel et objectif on peut facilement tomber dans la compensation grossière. La discrimination inconsciente est remplacée par la discrimination consciente, parce qu’elle est socialement acceptable.
En cherchant à faire constamment l’inverse de son biais on n’arrive pas à l’objectivité, on adopte plutôt un biais systémique.
Ce qu’en dit la recherche
La psychologie cognitive et la science de la décision décrivent bien ce phénomène. Contrairement à l’idée répandue, prendre conscience d’un biais cognitif ne permet pas généralement de le corriger de manière fiable.
Plusieurs travaux en psychologie soulignent le risque de la sur-correction. Philip Tetlock a montré que lorsque des décideurs savent que leurs décisions seront évaluées moralement ou socialement, ils ont tendance à ajuster leurs choix en fonction du risque de reproche plutôt qu’en fonction de la justesse. C’est une prise de décision défensive qui sert à protéger le preneur de décision.
“Forecasters who see illusory correlations and assume that moral and cognitive weakness run together will fail when we need them most.”
— Philip Tetlock, Superforecasting: The Art and Science of Prediction
Lors d’une embauche, ce constat est lourd de conséquences. Lutter contre les biais devient une prise de position individuelle, une forme de posture morale supportée par le constat bien réel de l’existence des biais mais, exagérée par la volonté de bien faire.
Quoi faire alors?
Les décisions les plus robustes ne passent pas par la vigilance morale individuelle, ni même par celle des pairs. Ce sont les processus structurés construits à l’avance qui peuvent seuls sauver ces décisions.
Des critères définis à l’avance, des grilles d’évaluation explicites et des comparaisons systématiques sont les outils nécessaires aux bonnes décisions.
Les décideurs ne peuvent pas et n’ont pas à être parfaitement objectif. C’est le rôle des processus de décision de guider vers le meilleur choix. Le bon processus limite les angles morts. Au lieu de lutter chacun contre ses propres biais, au risque de les sur-corriger, le processus balise la route menant au meilleur choix possible.


Laisser un commentaire