Pourquoi les prévisions sont (toujours) fausses ?

De la difficulté de prévoir l’avenir Ne peux t’on jamais rien prévoir ?

, par Gilbert Fernandes   submit to reddit

Les analyses économiques qui nous annoncent chaque année quelle sera la croissance de l’année à venir, l’évolution économique, le chômage, ... ne voient bizarrement jamais arriver les crises (ex : crise bancaire de 2007 qui n’était même pas annoncée 2 mois avant). Comment travaillent donc ces "prévisionnistes" quels outils mathématiques utilisent-ils, et quels sont leurs limites ?

Une modélisation simple

Si nous regardons l’évolution d’un simple indicateur économique qu’est le CAC 40 à la bourse de Paris, nous voyons que celui-ci suit des évolutions fortes au cours du temps :

CAC 40 sur 10 ans

Evolution du CAC 40 sur 10 ans, boursorama

Approximation du 1° ordre

Prévoir ces évolutions est une chose très importantes pour les banquiers qui cherchent à faire de l’argent avec la bourse. C’est pour cela que des "économistes" et autres spécialistes cherchent à prévoir son évolution futur. Ils utilisent alors la "progression tendancielle". C’est à dire qu’ils regardent comment à évoluée la courbe dans un passé proche, et suppose que la courbe va évoluer de même dans un futur proche. Cela nous donnes les différents axes suivants :

CAC 40, prévisions linéaires
Recherche de l’évolution tendancielle du CAC 40 par prolongation tendancielle

Suivant le point de départ où est pris l’analyse, et la durée de la "moyenne d’évolution" alors nous avons un axe de projection plus ou moins pentu.
Ainsi la droite rouge monte très vite, colle bien à l’évolution réelle, mais devient très vite fausse. La droite verte colle assez bien à la coube, avec une erreur plus importante, mais durant plus longtemps.
Cependant, cette méthode a ses limite, car aucune "progression tendancielle" ne voit venir la rupture de pente, et le changement radical d’évolution (ici évolution boursière). Cela marche un certain temps, mais il est impossible de prévoir jusqu’à quand.

Cette technique se base sur le principe d’approximation mathématique issue de la dérivée partielle d’une fonction en un point.

Courbe Mathématique F(x)

Courbe inconnue F(x) avec sa dérivée locale G(x)

Au Lycée nous avons appris (enfin, peut-être pas tout le monde) que prendre la dérivée en un point d’une courbe F(x), pour estimer la valeur de F(x) à partir de la droite G(x) était valable pour des valeurs de X très proche du point initiale. Plus nous nous éloignons de X, plus l’erreur croit. C’est ce que nous voyons sur ce graphique, c’est aussi ce que nous voyons sur les courbes du CAC 40. Pourquoi ? parce que la fonction F(x) est très complexe (nous pourrions prendre l’exemple de F(x) = k.x^5+j.x^4+g.x+p.x^(1/3) + ...) alors que la fonction dérivée est très simple ( G(x) = a.x +b) . C’est un peu comme si nous disions à un maçon : puisque tu as une truelle en main, tu est capable de reconstruire tout seul la muraille de Chine !

Imaginons un automobiliste partant de Marseille et essayons de savoir quand il arrivera à Paris, en passant par la Nationale. Nous allons prendre sa vitesse à un moment donné et estimer son heure d’arrivée en faisant une règle de 3. Suivant le moment où nous prenons la vitesse, le calcul sera plus ou moins juste (s’il roule à ce moment à 50 en ville, ou à 90 sur la route, s’il en est phase d’accélération ou de ralentissement). Ce calcul sera d’autant plus précis que nous faisons cette estimation sur une courte distance (distance parcourue en 1/4 d’heure, 1/2 heure ...) que sur une très grande (plusieurs heures). Car notre automobiliste peut rencontrer des bouchons, ou en sortir ...

Approximation du 2° ordre

Essayons d’améliorer notre approximation et recherchant la meilleur fonction du 2° degré ( f(x) = a.x^2 + b.x + c ) au lieu d’une fonction du premier degré comme précédemment. Si nous prenons notre automobiliste en train de démarrer et d’accélérer (par exemple parce qu’il sort d’un bouchon ou passe une barrière de péage, nous voyons que notre nouvelle approximation en rouge est beaucoup plus près de la courbe "réelle" en noire que notre première estimation g(x) en vert.

Courbe Mathématique F(x)=x^2

Courbe inconnue noire, avec avec sa dérivée locale G(x) et son approximation par F(x), fonction du second ordre

Si l’approximation du premier ordre (G(x)) supposait que l’automobiliste roulait à vitesse constante, l’approximation du second ordre (F(x)) suppose elle la vitesse de l’automobiliste varie dans le temps, mais que c’est sont accélération qui est constante. Cela est en partie vrai, durant un moment, lorsque l’on quitte un péage ou un bouchon. C’est pourquoi les 2 courbes (noire et rouge) sont proches relativement longtemps). En partie seulement car au bout d’un moment, la voiture va soit atteindre la vitesse maximum légal (130 km/h sur autoroute) soit ses propres limites techniques (un peu plus, mais pas beaucoup), et du coup, elle va forcément s’arrêter de s’accélérer. Pour savoir où se trouve à un instant donné notre voiture (entre Marseille et Paris) il faudrait donc réussir à modéliser finement l’accélération de l’automobiliste, et donc approximer sa position par des équations du 3° voir 4° ordre ou plus. Pour cela il faut prendre en compte, en plus de la situation à un instant précis (la position, la vitesse, l’accélération de la voiture), les contraintes techniques (bouchons, péages, ...) , les limites de vitesses (légales, techniques), et plein d’autres paramètres (fatigue, stresse du conducteur, niveau de la jauge d’essence, ...).
Chacun de ses paramètres physiques, qui semblent indépendant de notre problème (où se trouve la voiture sur la route), sont en fait des paramètres entrainant des actions ou rétro-actions sur notre problème. Ce sont les points clés qui permettent une bonne prévision fiable à moyen et long terme (c’est à dire ici au delà de quelques secondes à quelques minutes).

Difficulté de définir un modèle global

Définir un modèle global avec les différents paramètres est relativement complexe et difficile. Il faut dans un premier temps définir les liens entre eux et les actions qui les lient. C’est ce qu’avait fait en son temps le Club de Rome (au début des années 1970) concernant les points clés de notre économie mondiale (population, ressources naturelles, capital, pollution).

modélisation par le club de Rome

Modélisation par le club de Rome de 5 paramètres majeurs de notre économie et de leurs rétro-actions

Une fois que l’on a définit ces paramètres il faut définir les fonctions mathématiques qui sont associées aux petites flèches entre les paramètres. Cela est relativement difficile, mais pas impossible. Bien sûr il ne s’agit pas de trouver la formule "rigoureusement exacte", mais au moins une approximation relativement proche. Cela permet au final de définir un modèle de prévision beaucoup plus robuste que nos prévisions tendancielles, même du 2ème ordre. Ainsi les prévision alarmistes du Club de Rome en 1972 (notre modèle économique est voué à s’effondrer au milieu du XXI° siècle) se vérifient toujours 40 ans après (voir le résumé de Jancovicci)

Que font les prévisionnistes aujourd’hui ?

Et bien, dans la grande majorité des cas, ils se contentent de tirer un trait en partant d’une moyenne plus ou moins longue des mesures du passé. C’est ce que l’on voit ici, sur une compilation dernières prévisions de l’AIE.

Pronostics de l'AIE depuis 1994

Prévisions de la consommation de pétrole par l’AIE depuis 1994

Nous voyons clairement que chaque prévision annuelle est une ligne droite (dérivée du premier ordre) des dernières valeurs mesurées. Suivant que la courbe montait fortement ou non les dernières années, la prévision est plus ou moins "optimiste". Mais dans le même temps, nous pouvons constater que la consommation réelle a fortement fluctué dans le temps, sans jamais suivre les prévisions "long terme" de l’AIE.

Plus rarement, les prévisions sont des estimations obtenues par des dérivées d’ordre 2 (pour tenir compte de l’accélération). Ces prévisions sont légèrement plus fiable dans le temps que les dérivées d’ordre 1.
Ainsi les prévisions de l’ONU concernant la population mondiale qui "prévoie" 9 puis 15 milliards d’individus en 2050 puis 2100 prennent en compte la dérivée d’ordre 2 (baisse de la natalité dans le temps), mais sur une période aussi longue (40 à 90 ans), ce résultat n’est pas réaliste car il ne prend pas en compte les limites de la planète (alimentation, pollution), ni les accidents de parcours (guerres, famines).

Prévoir pour combien de temps ?

En gros, nous pourrions dire qu’une prévision par extrapolation linéaire (tracer une ligne droite) peut être valable pour quelques mois à 1 ou 2 ans), et si l’on utilise plutôt une courbe (dérivée seconde), nous pouvons multiplier par 2 ou 3 cette durée. Chaque paramètre ayant sa propre durée de vie et variabilité (population, consommation de pétrole, de ressources, pollutions, cours de la bourse, ...) ces valeurs seraient bien entendu à ajuster au cas par cas.

Globalement, pour des paramètres fortement liés à l’homme et à son activité, des prévisions à 10 ans, 20 ans ou plus, obtenues uniquement par une "prolongation tendentielle" ne sont pas crédibles. Leur seul intérêt serait de pouvoir dire : la valeur que nous obtenons est incohérente, impossible à obtenir, nous sommes donc sûr que les choses ne vont donc pas continuer en ligne droite : il va se passer quelque chose !

Les prévisions du GIEC sur le climat ou de l’ASPO sur le pétrole sont-elles fausses ?

Restent le problème des "grands cataclysmes" annoncés depuis quelques années par le GIEC concernant le climat, ou par l’ASPO concernant le pétrole. Ces prévisionnistes qui parlent aussi pour du long terme (20 à 40 ans, voir 1 siècle) sont-ils plus fiable que les autres ?

Le GIEC ne se contente pas de tirer une ligne droite pour déterminer le climat de demain, ils cherchent (plusieurs milliers de chercheurs dans le monde) à définir un modèle mathématique global du climat intégrant les actions et les rétro-actions des différents paramètres. Ce modèle, très complexe, est beaucoup plus fiable qu’une simple extrapolation même du 2° voir du 3° ordre car il prend en compte les variations de la fonction "F(x)", liés à des "incidents de parcours".

L’ASPO (voir aussi le site TheOilDrum) cherche à prévoir la prévision futur du pétrole en fonction des limites géologiques propre à cette extraction. Connaissant les gisements, leurs capacité de production, l’évolution de production dans le temps (un puits de pétrole ne produit pas toujours la même quantité, et voit un jour sa production s’arrêter), ils essaient d’estimer les capacités techniques maximales de production au niveau mondiale. Cette prévision est donc beaucoup plus réaliste que les prévisions de l’AIE qui de plus s’intéresse prioritairement à la question "combien de pétrole les clients veulent consommer ?" (très différente de la question "combien les compagnies vont réussir à produire ?").

Conclusion

Lorsque vous voyez une courbe de prévision futur, commencez par regarder s’il s’agit d’une dérivée d’ordre 1, d’ordre 2, ou autre.
Puis regardez les variations de la courbe dans le passé (valeurs mesurées), et regardez quels sont les vitesses de variations (présences de sauts, de brusques changements), si les fréquences de changement sont de l’ordre du jour, du mois, de l’année, de la décennie ...
Regardez alors l’échéance de la prévision, et si celle-ci se trouve au delà de la période probable de brusque variation de la courbe, alors dites vous que cette prévision est "fortement improbable", ou "grandement fausse", car une brusque variation va surement modifier la prévision.

Si par contre, la courbe de prévision est issue d’une modélisation mathématique du problème, alors regardez les résultats que donne ce modèle mathématique pour les périodes passées (on fait tourner le modèle mathématique dans le passé, et on lui demande de prédire le future, donc notre présent). Regardez les écarts entre la prévision et la réalité : s’ils sont faibles, dites vous que les "prévisions futurs" sont pertinentes, même à l’échelle d’un siècle.