Biais de représentativité

Le biais de représentativité fait partie des biais cognitifs les plus populaires, même s’il reste moins connu que le célèbre biais de confirmation, ou même le biais de disponibilité… Ou encore certains biais à la mode depuis quelques années, comme l’effet Dunning-Kruger ou l’effet Barnum, dont les adultes Haut Potentiel Emotionnel ou Haut Potentiel Intellectuel discutent souvent.

Qu’est-ce que le biais de représentativité ? Définition

C’est d’ailleurs tout le sujet du biais de représentativité : en gros, ce n’est pas parce que l’effet Barnum est (très) présent à l’esprit de la population surdouée qu’il l’est forcément à celui de la totalité de la population française, européenne, ou mondiale. Tout simplement car les surdoués ne sont, par définition, pas un échantillon représentatif de l’Humanité dans son ensemble 🙂

biais de représentativité : échantillon non représentatif
Il est facile de voir comment ou peut sélectionner un échantillon non représentatif et aboutir ainsi à un bais de représentativité

En conclure cela serait ainsi une distorsion cognitive, qui amènerait à une conclusion erronée.

Ce phénomène peut se produire pour plusieurs raisons, dont voici les plus courantes :

Échantillonnage biaisé

On dit que l’échantillonnage est biaisé quand il favorise certaines individus ou groupes par rapport à d’autres.

C’est par exemple le cas, pour s’appuyer sur quelque chose que l’on observe souvent depuis une quinzaine d’années, lorsqu’une enquête est conduite auprès d’une population adepte des réseaux sociaux, en extrapolant les résultats obtenus. C’est en effet oublier un peu vite qu’une quantité non négligeable de personnes ne fréquentent jamais ces réseaux… Et leurs opinions peuvent être, sur certains sujets, sensiblement différentes – voire complètement opposées.

A l’extrême : attention au micro-trottoir, toujours très apprécié des journalistes, car facile à mettre en oeuvre… mais scientifiquement de faible valeur.

Échantillonnage volontaire

Si l’on fait reposer la sélection des participants à une étude sur une base de volontariat, plutôt que sur celle d’un tri aléatoire – à supposer que celui-ci soit réalisé dans les règles de l’art, bien entendu -, on qualifie l’échantillonnage de “volontaire”.

Il est aisé d’imaginer à quel point ce critère peut, à lui seul, modifier des résultats. Imaginons un instant une étude qui s’intéressait à l’image de l’Olympique de Marseille en France, et que celle-ci soit mise en avant uniquement sur le site officiel du club : gageons qu’une très large majorité des répondants seraient non pas des “Français lambda” mais des supporters du club. Soyons sûrs également que l’on trouverait aussi une quantité non négligeable de “haters”, des supporters d’autres clubs venus troller, précisément pour rendre les conclusions de l’enquête encore mois exploitables 🙂

Le biais est encore plus fort lorsque la participation à une étude est récompensée ou rémunérée, car certains segments de population sont, par nature, particulièrement sensibles à ce type de levier de motivation et viendront donc grossir certains chiffres… Tandis que, dans le même temps, certaines personnes resteront insensibles à l’argument, ou seront même repoussées par celle-ci. Signalons ici que, s’il est facile d’obtenir plus de participants à une enquête lorsque celle-ci s’accompagne d’une rétribution, les résultats sont susceptibles d’être parfois largement faussés par ce seul fait.

Prudence, donc !

Effet de taille de l’échantillon

Une des erreurs que commettent souvent les étudiants quand ils travaillent sur des études quantitatives est de sous-estimer la taille minimum nécessaire pour que les résultats soient exploitables… Et ce, même si le professeur a bien pris le temps de les sensibiliser au préalable 🙂

D’une manière générale, il existe un seuil à partir duquel on pourra estimer que les données obtenues ne varieraient plus du tout au tout si l’on augmentait encore la taille de l’échantillon étudié (panel représentatif).

Selon les sujets, la taille minimal peut varier de quelques dizaines à plusieurs centaines voire milliers. Bien entendu, on peut aussi, en fonction de certaines réalités temporelles, économiques ou méthodologiques, s’accommoder d’un nombre plus limité que désiré initialement : la conclusion obtenue devra alors explicitement comporter une mention indiquant qu’un biais important est possible et que les analyses doivent donc être traitées avec précaution.

Une énorme quantité d’études dans le domaine de la psychologie sont aujourd’hui remise en question, parce qu’il est impossible de les reproduire parfois parce que, précisément, les échantillons étudiés à l’époque étaient bien trop faibles – et qu’un échantillon plus important aboutit à des observations fort différentes. Le tout en gardant à l’esprit que des décennies ont passé et que la société, l’être humain, évolue sans cesse.

Biais de représentativité et douance

Il n’y a pas, semble-t-il, de raison de penser que les surdoués soient plus exposés que la moyenne au biais de représentativité. En effet, ce biais touche directement l’objet de l’étude (les échantillons), et il n’est pas interdit de penser qu’être capable d’établir correctement des échantillons soit plus une question de connaissances, de savoir, de travail, de méthode, que d’intelligence – même si on peut ici rappeler que certains surdoués peuvent souffrir d’un certain manque à ce niveau là, précisément en raison de leurs “facilités”, notamment au cours de leur scolarité.

C’est plutôt du côté de l’étude de la douance et de l’évaluation des surdoués qu’il faut se tourner ici.

Biais de sélection

Il n’est pas rare de lire des échanges en ligne entre surdoués dans lesquels ceux-ci tirent des conclusions, parfois hâtives. La plupart du temps, c’est parce qu’ils ont tendance à oublier que la communauté en ligne sur laquelle ils se sont appuyées, consciemment ou inconsciemment, pour raisonner, n’est pas forcément représentative de l’ensemble des Haut Potentiel.

Et quand bien même ils fréquenteraient – ou auraient fréquenté – plusieurs de ces communautés… Un minimum de culture en matière de digital doit permettre de garder à l’esprit la règle du 1%.

Celle-ci illustre en effet le fait que, dans toute communauté sur internet, la participation active à celle-ci est extrêmement faible. Grosso modo, cette règle (que l’on appelle aussi parfois loi de 1 %, hypothèse du 1%, principe 90-9-1…) indique que 90% des membres d’une telle communauté en consomment passivement les contenus, sans rien apporter à celle-ci (leur participation éventuelle se limitant à des envois de Messages Privés), 9% contribue de manière très ponctuelle (quelques likes ici ou là, un message le jour de l’inscription, un ou deux commentaires parfois sur une période de plusieurs années…), et seul 1% créent de la valeur, c’est-à-dire contribuent activement à la communauté.

Inutile de dire que si un chercheur se base sur ces 1% pour mener ses études, il n’est pas dit que les résultats soient très probants 😉

Certains posent parfois comme hypothèse que les zèbres les plus actifs en ligne seraient des Haut Potentiel qui rencontrent des difficultés, ponctuellement ou de manière plus durable, dans leur existence. Mais à encore… Derrière cette “intuition” se cache un énorme biais 🙂

Plus généralement, un très grand nombre de surdoués ne sont tout simplement pas testés. Par définition, un surdoué testé durant l’enfance ou l’adolescence est un Enfant Intellectuellement Précoce (EIP) pour lequel, peut-être, une conjonction d’éléments s’est produite. Il peut s’agit de troubles scolaires… Cela peut être aussi exactement l’inverse : des facilités tellement importantes que la décision, par exemple, de sauter une classe peut s’appuyer sur un diagnostic mené avec un psychologue spécialisé Haut Potentiel.

Quid de tous les autres zèbres ? Dont certains seront dépistés à l’âge adulte, mais dont beaucoup, vraisemblablement, ne le seront jamais de manière “officielle” ?

Un des principaux biais autour des études sur la surefficience se tient ici.

Préjugés, clichés et stéréotypes

Il n’est pas rare de constater, lorsque l’on prend la peine de creuser certaines études et la façon dont elles ont été conduites, que les postulats, ou plutôt les axiomes, qui en sont le socle, déterminent d’emblée le résultat final.

Ainsi, si des chercheurs ont une représentation datée sur la douance, ils vont peut-être créer leurs échantillons d’une manière qui respectera ces présupposés d’un autre temps. D’où une certaine reproduction des croyances, au fil des études.

C’est peut-être d’une autre étude que viendra, à un moment donné, la remise en question de ces “évidences” – qui ne le sont pas tant que ça. La connaissance évoluant ainsi par petits sauts, par bonds, plus que de manière linéaire.

C’est la raison pour laquelle il convient, certes, de toujours se nourrir d’éléments sourcés, construits de manière scientifique, mais aussi de confronter les points de vue, les arguments, les biais… Et de rester capable de supporter l’incertitude.

Capacité qui serait, selon un philosophe assez connu 😉 , caractéristique d’un haut niveau d’intelligence.

On mesure l’intelligence d’un individu à la quantité d’incertitudes qu’il est capable de supporter.

Emmanuel Kant
(parfois attribuée par erreur à Antoine Houdar de la Motte)

(voir d’autres citations sur l’intelligence)

Au final, méfiez-vous des généralisations… Et, surtout, faites mentir les généralités en venant discuter avec les autres surdoués, au sein des Groupes de discussion de votre choix 😉

A tout de suite !