Les méthodes déterministes d’évaluation d’actions

By 5 January 2013

3° Partie : Les méthodes d’évaluation déterministes

3.1. Introduction

C’est à Laplace que nous devons la première définition du déterminisme : “Nous devons envisager l’état présent de l’univers comme l’effet de son état antérieur, et comme la cause de celui qui va suivre. Une intelligence qui, pour un instant donné, connaîtrait toutes les forces dont la nature est animée et la situation respective des êtres qui la composent, si d’ailleurs elle était assez vaste pour soumettre ces données à l’analyse, embrasserait dans la même formule les mouvements des plus grands corps de l’univers et ceux du plus léger atome : rien ne serait incertain pour elle, et l’avenir, comme le passé, serait présent à ses yeux.”

L’ensemble des modèles scientifiques est bâti sur cette doctrine jusqu’à la première moitié du 20° siècle. Selon le déterminisme scientifique, si on connaît l’ensemble des conditions initiales d’un système ainsi que sa modélisation complète, on doit être capable de déterminer entièrement l’état du système à n’importe quel moment au cours du temps. En poussant le déterminisme encore plus loin, le processus est réversible : si on connaît la situation du système au temps t et sa modélisation complète, on peut en déduire sa situation dans le passé et dans le futur. Le temps n’est donc pas un facteur déterminant dans le fonctionnement du système, il ne sert qu’à dérouler son évolution.

Il existe un fondement théologique au déterminisme. En effet, on croit à l’époque de Newton en un Dieu qui aurait créé toutes choses et présiderait à leurs destinées. Donc, étant donné que la nature a été créée de toute pièce par une conscience suprême, il est logique que celle-ci obéisse à un ordre bien défini. Ainsi, tout évènement est le fruit de ses causes et la source de conséquences qui entraîneront à leurs tours d’autres évènements. Ainsi tout serait déjà écrit par Dieu. Les sciences auraient donc pour but de trouver à travers leurs recherches, les lois cachées de la nature.

Le problème que rencontrent assez rapidement les scientifiques est qu’il est très difficile de maîtriser l’ensemble des paramètres d’un système mais aussi de posséder un modèle qui puisse tenir compte de l’ensemble des paramètres. Il est, par exemple, assez simple de maîtriser un système d’équations différentielles servant à la prévision des phénomènes de gravité entre deux corps isolés, à partir de trois corps, cela devient nettement plus ardu et au-delà, cela nécessite de puissants ordinateurs. Les scientifiques en sont donc réduits à découper la réalité en petits morceaux observables en limitant les interactions avec l’extérieur. Ils créent alors des modèles mathématiques expliquant les phénomènes réduits observés. Ne pouvant maîtriser l’ensemble de l’univers qui les entourent, ils considèrent les phénomènes annexes comme des bruits pouvant être négligés. Toutefois, si on trouve le moyen d’isoler et de mesurer d’autres phénomènes dans ce bruit, on pourra raffiner le modèle pour le faire coller au mieux à la réalité.

3.2. Exemple de déterminisme en physique nucléaire.

Un très bel exemple d’évolution d’un modèle empirique est la formule de Weizäcker qui nous donne l’énergie contenue dans un noyau atomique. Au fur et à mesure que les instruments de mesure se sont perfectionnés, les scientifiques ont pu affiner leur modèle en rajoutant petit à petit à la formule, des termes décrivant des forces de plus en plus subtiles.

La formule de Weizäcker est la suivante :
La formule de Weizäcker

où :
– A est la masse atomique de l’atome
– Z est le nombre de protons
– N est le nombre de neutrons
– C est la vitesse de la lumière
– mk est la masse d’un atome d’hydrogène
– image005 est la masse d’un neutron
– les coefficients image006 sont des constantes calculées expérimentalement
– Le premier terme : image007 représente l’énergie contenue dans la masse de l’atome, c’est à dire E=Masse*C²
– Le deuxième terme : A est appelé terme de volume. Il est négatif car il représente l’attraction entre les parties de l’atome.
– Le troisième terme : image009 est appelé terme de surface. Il correspond à l’énergie de liaison des nucléons à la surface du noyau, un peu à la façon d’une goutte d’eau.
– Le quatrième terme : image010 est appelé terme Coulombien. Il correspond à l’énergie de répulsion électrique des protons (de charge positive).
– Le cinquième terme : image011 est appelé terme de symétrie. Il illustre le fait que les atomes ont tendance à favoriser des nombres égaux de protons et de neutrons.
– Le sixième terme : Le sixième terme est appelé terme d’appariement. Sa valeur varie en fonction du fait que l’atome est composé de nombre pairs ou impairs de protons et de neutrons.

On voit très bien que chaque terme de l’équation correspond à un phénomène particulier dont les effets s’ajoutent les uns aux autres pour avoir une formule finale décrivant au mieux la réalité. Ces termes sont déduits d’une confrontation du modèle avec la réalité. C’est ainsi qu’empiriquement, la formule a été raffinée au fur et à mesure des observations.

Nous allons voir que nous retrouvons ce même genre de démarche en économie et en particulier dans le cas qui nous intéresse : l’évaluation des actions.

3.3. Méthodes déterministes d’évaluation d’actions.

Les premières méthodes d’évaluation d’actions suivaient à peu près la même doctrine que la doctrine scientifique déterministe. Nous allons voir comment un modèle peut évoluer en s’affinant. Il est remarquable de voir que ces modèles sont encore souvent utilisés aujourd’hui.

3.3.1. Modélisation par une méthode comptable et actuarielle

Nous allons tenter de suivre une construction semblable à celle montrée par la formule de Weizäcker pour construire un modèle d’évaluation d’entreprise en raffinant de plus en plus notre modèle. Commençons notre exercice par la façon la plus basique de déterminer le prix d’une entreprise, par l’angle de la comptabilité : La valeur (V) de l’entreprise n’est rien d’autre que la différence des actifs (A) et des dettes (D).

V = A – D

Critique du modèle :
– Simple et rapide.
– Peu fiable car utilise des données comptables qui ne tiennent pas compte des actualisations, des dépréciations dues à l’inflation, de la valeur de l’activité, etc.

On va raffiner un peu le modèle. En fait, la différence entre les actifs et les dettes est appelée aussi la valeur nette comptable de l’entreprise.

On sait que :
(1) Fonds Propres = Capital + Prime d’émission + Plus-values de réévaluation + Réserves +/- Résultat reporté – Frais d’établissement.
(2) Total Actif = Total Passif
(3) Passif = Fonds propres + Intérêts de tiers + Provisions, impôts différés + Dettes

On a donc :
Passif – Dettes = Fonds propres + Intérêts de tiers + Provisions, impôts différés (3)
or (2) Actif = Passif, donc :
Actif – Dettes = Fonds propres + Intérêts de tiers + Provisions, impôts différés = Valeur nette comptable

Est-ce que ces trois éléments participent à la valeur de l’entreprise? A y regarder de plus près, on pourrait considérer provisions et impôts différés comme des dettes en latence et les intérêts de tiers comme des fonds propres en latence. Dès lors, on peut rectifier le modèle pour faire en sorte qu’il colle un peu mieux à la réalité économique et ne se concentrer que sur les valeurs rentrant effectivement en compte au niveau de la valeur de l’entreprise. Ceci pour obtenir une nouvelle équation, toujours basée sur des notions comptables.

V = Fonds propres + Intérêts de tiers.

Critique du modèle :
– Plus proche de la réalité.
– Malgré le fait que la valeur du Goodwill est comptablement comprise dans les actifs et donc est comptée indirectement via les fonds propres affichés au passif ; aucun terme spécifique aux actifs incorporels n’est enregistré dans ce modèle.
– On a une vue comptable mais celle-ci ne tiens aucun compte de la rentabilité de l’entreprise et de son comportement dans le futur. Pourtant cette notion est importante car elle conditionne aussi la valeur d’une entreprise : si à valeur comptable identique, une entreprise est plus rentable qu’une autre et offre plus de retour que l’autre, son prix sera forcément plus élevé.
– Si on divise V par le nombre d’actions, nous obtenons la Book Value de l’action.

Pour améliorer notre modèle, on va donc intégrer dans notre calcul les dividendes (d) perçus l’année t ainsi qu’un taux d’intérêt (i) pour actualiser les dividendes perçus. Posons aussi que la valeur comptable Fonds propres + Intérêts = V0. On obtient donc :

la durée de vie de l'entreprise
Où n représente la durée de vie de l’entreprise.

Donc : la durée de vie de l'entreprise

Si on considère que les dividendes sont un pourcentage des fonds propres, on pourrait définir.

image016 Où la rentabilité des fonds propres l'année t serait la rentabilité des fonds propres l’année t.

Par convention, on peut définir image018 =1 au temps 0, ce qui nous amènerait au modèle suivant :

image019 car image020

Critique du modèle :
– On tient compte maintenant de la valeur des dividendes qu’on a ajouté aux fonds propres.
– Ce modèle colle assez bien à la réalité mais il ne rend pas compte de la plus value qu’on peut faire lors de la revente de l’action car on se base sur la valeur d’achat de l’action et non de l’évolution de son cours. Une entreprise évolue, on ne peut pas se dire que les fonds propres resteront fixes pendant la durée de vie de l’entreprise.

Pour améliorer le modèle, il suffit de remplacer V0 par la valeur de l’action à la revente actualisée en t=0.

modèle de Fischer
Notre démarche nous a conduit au modèle de Fischer, développé en 1930.

Critique du modèle :
– La formule est assez lourde à mettre en œuvre.
– On peut facilement utiliser ce modèle rétrospectivement pour vérifier le prix d’une action à un moment donné dans le passé. Cette démarche peut nous permettre de comparer les valeurs de certains instruments dans des conditions de marché particulières, à des moments particuliers dans le passé et peut-être par comparaison, nous inspirer aujourd’hui certaines décisions concernant des instruments cotés actuellement.
– Au niveau de la prédictibilité du modèle, on ne peut malheureusement pas prédire l’ensemble des dividendes futurs ni la plus-value réalisée sur la vente de l’action au temps t=n. Et donc, même si le modèle semble coller assez bien à la réalité, sa mise en œuvre nous est impossible sans approximations et sans spéculations sur l’avenir de l’entreprise.

Pour simplifier le modèle et essayer de le rendre plus facile à mettre en œuvre, nous allons émettre deux hypothèses lourdes et peu réalistes. Tout d’abord, nous allons considérer que la suite des dividendes versés est infinie. Cette hypothèse peut être posée dans la mesure où la série géométrique converge. Ensuite, nous allons considérer que les dividendes augmentent de façon constante selon un taux de croissance g.

Si on utilise le premier dividende versé comme point de repère pour calculer les autres dividendes, on a donc :taux de croissance g

Si on considère que nous évaluons notre action après le versement du premier dividende, notre équation devient :
image023

On peut mettre d en évidence :
image025

Nous sommes en présence d’une suite géométrique convergente de base image026 et de raison image027.

On a donc image028

D’où : image029

En simplifiant les fractions, nous obtenons la formule de Gordon-Shapiro simplifiée :
la formule de Gordon-Shapiro simplifiée

Critique du modèle :

– On arrive effectivement à une simplification du modèle qui le rend plus utilisable mais au prix de lourdes concessions. Ceci nous fait prendre un décalage par rapport à la réalité. Il est important de bien se rendre compte que les modifications que nous avons apporté à notre modèle fait en sorte qu’il est plus facile à utiliser et plus simple mais que ces simplifications éloignent notre modèle de la réalité qu’il veut décrire et nous donnera finalement une valeur biaisée de ce qu’on veut estimer.

3.4. Décodage épistémologique

On a vu ici comment on a pu construire des modèles représentatifs de phénomènes de physique nucléaire et des modèles de valorisation d’action. Les démarches s’inscrivent toutes deux dans la lignée de l’empirisme :

Les deux modèles sont basés sur le fruit de l’expérience. Dans les deux cas, nous sommes partis d’un modèle de base que nous avons fais dialoguer notre modèle avec la réalité de l’expérience pour l’affiner et le rendre encore plus conforme à ce que la réalité nous a montré.

Nous sommes ici en présence de phénomènes extérieurs à l’Homme. C’est assez clair pour la physique, un peu moins pour la valeur d’une action mais selon notre modèle, cette valorisation n’est basée en rien sur une quelconque action humaine, on valorise sur base de mesures chiffrées.

On a réduit des phénomènes complexes en un ensemble de parties plus petites et plus faciles à appréhender et ensuite, nous avons rassemblé ces parties pour reconstituer notre phénomène complexe. En physique nucléaire, nous avons décrypté plusieurs phénomènes que nous avons chiffrés séparément. Pour notre modèle économique, nous avons découpé différentes périodes pour les valoriser séparément.

Ensuite, nous avons éprouvé les deux modèles face à la réalité. Nous avons pu à la fois valider nos théories mais cela nous a aussi permis d’affiner celles-ci et d’améliorer nos modèles. Il est important de noter qu’à chaque étape, nous devons entamer un dialogue entre la réalité et le modèle afin d’en détecter les imperfections et de les corriger de façon à avoir un modèle le plus proche possible de la réalité. Cette confrontation avec la réalité se fait de façon différente en économie ou en physique. En physique, nous pouvons soumettre nos théories à des expérimentations et mesurer ce qui se passe. Dans notre cas, nous pouvons valider notre modèle en le soumettant aux aléas des marchés sans pour autant maîtriser celui-ci. On peut vérifier les modèles grâce aux cours de bourse qui nous donne justement le résultat de cette tractation.

Un autre point remarquable, c’est que les deux modèles nous donne un seul et unique résultat chiffré et mesurable. C’est une particularité du déterminisme : on obtient qu’un et un seul résultat qui est sensé refléter la réalité à lui seul. On verra que c’est loin d’être le cas de tous les modèles.

Nous sommes donc bien ici en présence de démarches descriptives scientifiques fort semblables basées sur l’empirisme.

3.5. La nécessité de trouver des nouveaux modèles.

Le principal problème d’un modèle déterministe est qu’il est tourné vers le passé. En effet, pour obtenir nos résultats, on utilise des données qui sont à notre disposition mais qui sont déjà obsolètes. La démarche déterministe est une démarche que pourrait avoir un comptable. Dans le passé, on faisait entrer dans son portefeuille des actions qui étaient dans des mouvements haussiers. La décision d’achat n’était dictée que par le comportement passé de l’action.

Aujourd’hui, les financiers ont besoin d’avoir des modèles prospectifs, ils cherchent à se projeter vers l’avenir. Ils ne vont plus nécessairement chercher une action qui est dans une phase haussière car elle a peut-être déjà dépassé son apogée et les raisons de sa hausse n’ont peut-être plus la même pertinence au moment de l’achat. Ils vont plutôt baser leur décision d’achat sur les potentialités d’un titre et simuler le comportement de leur portefeuille pour voir si l’investissement est intéressant.

C’est cette nécessité de vision prospective qui est en partie à l’origine des modèles que nous allons étudier au point suivant.

Lire le mémoire complet ==> (Comparaison épistémologique entre les modèles issus des sciences de la vie et les modèles de valorisation d’actions)
Mémoire présenté pour l’obtention du grade de Master en sciences commerciales
Enseignement supérieur de type long de niveau universitaire
Groupe ICHEC – ISC St-LOUIS – ISFSC – Haute Ecole