Les algorithmes prédictifs, pas plus performants qu’une boule de cristal ?



De plus en plus d’entreprises investissent dans des technologies censées les aider à prévoir l’avenir, notamment en termes de comportement de leurs employés : productivité, interactions, et même états émotionnels. Ces algorithmes qui promettent une meilleure rentabilité représentent un marché de plusieurs milliards de dollars, en pleine expansion. Pourtant ils ne se révèleraient pas plus fiables qu’une boule de cristal.

 

Le premier défaut identifié : les algorithmes se basent sur un « raisonnement inductif », c’est-à-dire qu’il tire des conclusions à partir d’un échantillon, supposant qu’elles s’appliquent à tous les niveaux et ne varient pas dans le temps. Cela peut conduire à des décisions infondées, ou discriminer certains groupes de personnes. En second lieu, l’analyse algorithmique créée des « prophéties auto-réalisatrices » car, en se basant sur ces prédictions pour agir, les gestionnaires créent les conditions qui réalisent ces prédictions.

 

Par ailleurs, calculer la probabilité d’évènements futurs n’a pas de réelle signification : la probabilité se base sur la possibilité d’une certitude complète qui elle est impossible à prédire… Par conséquent « les algorithmes ne prédisent pas, ils extrapolent ». Une fois leur code de base développé, les algorithmes prédictifs doivent être « formés » pour affiner leur puissance prédictive. Cette formation est réalisée en les alimentant avec des données organisationnelles passées, desquelles l’algorithme extrait les tendances et les applique au futur. À chaque cycle d'application, l'algorithme est continuellement ajusté pour corriger les « erreurs de prédiction ».

 

Si un algorithme prédictif peut deviner ce qui va se passer en fonction de ce qui s’est déjà passé, il est en revanche incapable d’anticiper le changement. Hors l’homme n’est pas que régularité, continuité, routine. La clé d'une prise de décision efficace n'est donc pas dans les calculs algorithmiques mais dans l'intuition.


Sources: 

The Conversation, Uri Gal (12/02/2018)