Der Zufall in den Wirtschaftswissenschaften

Das diesjährige Generalthema von Pro Scientia, einer österreichischen Studienförderungsinitiative, ist der Zufall. Im Zuge dessen habe ich kürzlich einen Vortrag zum Thema mit dem Titel „Der Zufall in den Wirtschaftswissenschaften. Zwei prominente Beispiele“ gehalten, dessen Kurzzusammenfassung ich hier teilen möchte.

I. Einleitung

Die Unterscheidung zwischen Zufälligkeit und hohem Grad an Komplexität ist keine einfache. Ist etwa der Ausgang eines Würfelwurfs Zufall? Könnte man, wüsste man über sämtliche Ausgangs- und Randbedingungen wie etwa der exakten Neigung der Handfläche oder der genauen Anfangsgeschwindigkeit des Würfels Bescheid, den Ausgang nicht sogar vorab berechnen? Nach einiger Diskussion stellt die Grazer Pro Scientia Gruppe fest: Würfeln ist wohl nicht wirklich zufällig, aber komplex. Ähnlich sieht es mit den wirr erscheinenden Preisbewegungen am Aktienmarkt aus. Preise, die aufgrund von Angebot und Nachfrage an der Börse gebildet werden, spiegeln immerhin doch den Unternehmenswert wider, der wohl stark mit dem mehr oder weniger gut messbaren Unternehmenserfolg zusammenhängt. Rein zufällig kann der Preis somit nicht sein. Es scheint auch tatsächlich langfristige Trends und Zyklen zu geben, die kleinen, oft minütlich auftretenden Schwankungen wirken aber doch eher wie das viel zitierte weiße Rauschen. Im Umgang mit solch volatilen Bewegungen, deren insbesondere kurzfristigen Veränderungen kaum vorhersehbar sind, spielt es jedoch keine so große Rolle, ob es sich beim untersuchten Phänomen tatsächlich oder nur scheinbar um Zufall handelt. Denn der Zufall kann auch in Verbindung mit bekannter Dynamik als Instrument genutzt werden, um komplexe Systeme handhabbar zu machen. Im Folgenden stelle ich zwei Beispiele vor, bei denen es um die Zufälligkeit von Aktienpreisen geht. Im ersten Beispiel folgt der Zufall als Konsequenz einer volkswirtschaftlichen Theorie. Im zweiten wird der Zufall als Modellierungswerkzeug verwendet, um konkrete Probleme der Preisbestimmung finanzmathematisch zu lösen.

II. Effizienzmarkthypothese

Eugene Fama entwickelte die sogenannte Effizienzmarkthypothese (siehe Fama, 1970), die proklamiert, dass im aktuellen Preis einer Aktie bereits sämtliche aktuell verfügbaren Informationen eingepreist sind und Preisänderungen nur aufgrund neuer Information stattfinden. Durch das Analysieren historischer Kursentwicklungen oder fundamentaler, preisrelevanter Daten kann keine zusätzliche Information erlangt werden, weshalb es selbst der klügsten und geschicktesten Marktteilnehmerin nicht gelingen kann, den Mark langfristig zu schlagen, also systematisch Gewinne zu erzielen. Märkte arbeiten in diesem Sinne effizient. Eine Konsequenz dieser Theorie ist, dass Aktienpreise einem zufälligen Muster – mathematisch formuliert einem stochastischen, trendlosen Prozess – folgen. Die beste Prognose für einen zukünftigen Preis ist demnach der aktuelle Kurswert. Spekulationsblasen haben in diesem Bild von Finanzmärkten keinen Platz – sie können sich rein technisch nicht entwickeln oder zumindest nicht lange halten.

Einer der schärfsten Kritiker dieser Theorie ist Robert Shiller, dessen Forschungsgebiet sich unter anderem auf Blasenbildung in Aktien- und Immobilienmärkten erstreckt (siehe beispielsweise Shiller, 2015). Groteskerweise erhielten Shiller und Fama (gemeinsam mit Lars Peter Hansen) 2013 den Nobelpreis für Wirtschaftswissenschaften für ihre empirische Analyse von Kapitalmarktpreisen. Shiller schreibt:

Im Grunde besagt die Effizienzmarkthypothese, dass unterschiedliche Fähigkeiten nicht zu unterschiedlicher Investmentperformance führen. Diese Theorie behauptet, dass die klügsten Menschen nicht in der Lage sind, hinsichtlich der Investmentperformance besser abzuschneiden als die am wenigsten intelligenten – und zwar deshalb nicht, weil ihr überlegenes Wissen bereits vollständig in die Aktienkurse eingepreist ist. Wenn wir die Prämisse der Markteffizienz akzeptieren, ist klug zu sein nicht nur kein Vorteil, sondern daraus folgt unmittelbar auch, dass es kein Nachteil ist, nicht so klug zu sein. […] Was die erwartete Anlagerendite angeht, könnte man genauso gut zufällig Aktien auswählen.

Shiller weißt auf einen signifikanten Unterschied bezüglich Vorhersagbarkeit hin, den die klassische Effizienzmarkthypothese ignoriert: Während es durchaus plausibel erscheint, kurzfristige Änderungen als zufällig aufzufassen, stellt er die langfristige Gültigkeit der Effizienzmarkthypothese in Frage. Psychologische und kulturelle Effekte wie auch Unterschiede in Wissen und Erfahrung können laut seinen Theorien sehr wohl zu länger andauernden Über- oder Unterbewertungen führen, die sich in Spekulationsblasen manifestieren. Der exakte Zeitpunkt einer Trendumkehr ist jedoch auch für ihn nicht vorhersehbar, was das Ausnutzen eines solchen Wissens schwer macht. Die Geschichte und nicht zuletzt die Dotcom-Blase um den Jahrtausendwechsel und die Immobilienblasen im Vorfeld der globalen Finanzkrise scheinen ihm Recht zu geben.

III. Black-Scholes Modell

Das Black-Scholes Modell ist ein finanzmathematisches Modell zur Bewertung, also zur Bepreisung, von Optionen. Eine Option ist ein Finanzderivat, dessen Wert von der Preisentwicklung eines zugrundeliegenden Wertpapiers abhängt. (Anstelle eines Wertpapieres können auch andere volatile Einheiten wie etwa Zinsen, Wechselkurse oder aber auch der Temperatur- oder Niederschlagsverlauf fungieren.) Eine Option verleiht der Käuferin das Recht, niemals aber die Pflicht, das jeweilige Wertpapier zu einem späteren Zeitpunkt zum beim Vertragsabschluss festgesetzten Preis – dem sogenannten Strikepreis – zu kaufen oder zu verkaufen. Sollte der Preis des Wertpapiers zum Ausübungszeitpunkt im Falle einer Kaufoption unten dem Strikepreis liegen, würde die Käuferin ihr Recht nicht ausüben, sondern das jeweilige Wertpapier schlicht zum aktuellen Kurswert erwerben. Damit ist eine Option quasi eine Versicherung gegenüber Preisanstiegen oder Preisverfall – je nachdem ob das Recht zu kaufen oder das Recht zu verkaufen erworben wird. Optionen sind somit ein äußerst sinnvolles Finanzprodukt, mit dem sich Personen gegenüber Risiken absichern können. Beispielsweise sichern sich Fluggesellschaften zu einem gewissen Grad gegen steigende Kerosinpreise oder Landwirte gegen Ernteausfälle aufgrund von zu geringem Niederschlag ab. So wie bei vielen Finanzprodukten können Optionen jedoch auch für Spekulation verwendet werden.

Da für die Käuferin der Option kein Risiko entsteht, sondern sie ausschließlich profitieren oder neutral aus dem Geschäft aussteigen kann, ist es rational notwendig, für die Option einen positiven Preis festzusetzen. Ansonsten hätte der Verkäufer keinerlei Anreiz, sich auf das Geschäft einzulassen – there is no free lunch. Allerdings: Wie setzt man einen Preis fest, dessen Wert von einer unbekannten – zufälligen – Größe abhängt? Generell werden Optionen ebenso wie das zugrundeliegende Wertpapier an der Börse gehandelt. Somit entsteht durch Angebot und Nachfrage auf natürliche Art und Weise ein Preis. Nachdem der Verkäufer jedoch Risiko von der Käuferin übernimmt, ist unter anderem aus Gründen der Risikoabschätzung ein fundamentaler Modellpreis hilfreich.

Das Black-Scholes Modell wurde von Fischer Black und Myron Scholes unter Mitarbeit von Robert Merton (siehe Black and Scholes, 1973; Merton, 1973) entwickelt. Scholes und Merton wurden dafür 1997 mit dem Nobelpreis der Wirtschaftswissenschaften ausgezeichnet. Black war zu diesem Zeitpunkt leider bereits verstorben. Das Modell stellt eine Formel bereit, welche – zumindest für einfache Optionen – einen Preis berechnen kann. Der wichtigste Bestandteil des Modells ist – der Effizienzmarkthypothese folgend – ein stochastischer Prozess, welcher die Preisbewegung des zugrundeliegenden Wertpapiers modelliert. Dabei ist es nicht das Ziel, exakte Preise des Wertpapiers zu berechnen, sondern vielmehr das Risiko – also mehr oder weniger die Schwankungsbreite – der möglichen Preisentwicklungen abzubilden. Dieser stochastische Prozess wird mittels stochastischer Differentialgleichung beschrieben. Ähnlich wie deterministische Differentialgleichungen, die beispielsweise in der Physik verwendet werden, um Wellenbewegungen zu beschreiben, wird dadurch die Dynamik des Wertpapiers erfasst. Zufallsvariablen erzeugen zusätzlich zu einem generellen Trend, zufällige Störungen, welche das typische Zickzack-Muster im Verlauf von Aktienpreisen erzeugen. Das Ausmaß dieser zufälligen Störungen – deren Varianz – kann etwa aus vergangenen Kursen geschätzt und dementsprechend im Modell eingebaut werden. Die Eigenschaften dieses stochastischen Prozesses werden schlussendlich verwendet, um mittels mathematisch sehr ästhetischer Formel einen fairen Preis der Option zu berechnen. Fair bedeutet dabei, dass im Erwartungswert weder Käuferin noch Verkäufer Gewinn oder Verlust machen.

Das Black-Scholes Modell ist ein relativ einfaches Modell, das auf einer Reihe von realitätsfernen Annahmen basiert und deshalb umfangreicher Kritik ausgesetzt ist. Es war jedoch das erste dieser Art und legte den Grundstein für eine Reihe von weitaus ausgefeilteren Modellen, die sich des Zufalls bedienen, um Risiko in Modellen abzubilden.

IV. Zusammenfassung

Die Effizienzmarkthypothese und das Black-Scholes Modell zeigen auf beispielhafte Weise, welche Rolle der Zufall im Verständnis der Wirtschaftswissenschaften spielt. Ob es sich nun bei Preisbewegungen am Aktienmarkt tatsächlich um Zufall oder doch nur um eine hochgradig komplexe Angelegenheit handelt, ist wohl weiterhin unklar. Allerdings zeigt sich, dass stochastische Modellierung ein mächtiges Werkzeug darstellt, um beobachtete Zufälligkeit / Komplexität in den Griff zu bekommen beziehungsweise in Theorien einzubauen.

V. Literatur

Black, F. and Scholes, M. (1973). The pricing of options and corporate liabilities. Journal of Political Economy, 81(3):637–54.

Fama, E. F. (1970). Efficient capital markets: A review of theory and empirical work. The Journal of Finance, 25(2):383–417.

Merton, R. (1973). Theory of rational option pricing. Bell Journal of Economics, 4(1):141–183.

Shiller, R. J. (2015). Irrational Exuberance. Princeton University Press, Princeton, NJ, 3rd edition.

Advertisements

Bubble Detection: The Challenge

Damned! It seems Flo and I will never truly disagree about anything.

Let me summarize our agreement: A fully rigorous definition of fundamental value is “the expected value, conditional on the information available today, of the discounted sum of future cash flows”. Fundamental value is equal to the equilibrium price we would get in an efficient market. That’s the efficient market hypothesis (which is a misnomer, because it’s not just a hypothesis but a true theorem). Hence what we mean, conceptually, when talking about a bubble is the deviation of the actual price from this hypothetical equilibrium price. And these deviations can come from a) people being stupid in the sense of not taking into account all the available information and/or b) market imperfections like transaction costs or costs of information gathering.

Our disagreement is that, while Flo thinks there could be reliable ways to detect bubbles in the real world ex ante, I don’t. There’s only one way to find out. I can “predict” 50% of all bubbles merely by chance (e.g. by flipping a coin). So this must be the benchmark for any bubble spotting strategy. Let’s see whether credit growth can successfully predict the next 5 bubbles. Under the null hypothesis that credit growth has no better predictive power than a coin, the probability of guessing 5 out of 5 bubbles right is 3,125%. If Flo can do it, we can reject the null at a reasonable level of significance. Or, if you prefer, we can also reject the null if credit growth is able to predict at least 15 out of the next 20 bubbles (p-value 2%).

Fancy a bet, Flo?

On the impossibility of spotting bubbles

I finally found something where I really disagree with Florian. I think there is no reliable indicator to spot bubbles in advance. And I don’t that we will ever get one.

Like Katharina, I’m a big fan of clear definitions. The reason is that, particularly in discussions of economic issues, words often appear to have a clear meaning, but when you look at them more carefully you realize that they are either completely meaningless or their meaning is very different from what everyone thinks.

So what does Florian, or anybody else, mean when they talk about a bubble? Well, the standard definition is something like this: An asset bubble is a prolonged period of time in which the market price of an asset exceeds the asset’s fundamental value. And the fundamental value is the present value of future cash flows which the asset is expected to generate. Fair enough. So how can we spot bubbles?

According to Flo, “bubbles are generally characterized by building up exponentially”. Hence one should be able to detect bubbles by comparing current asset prices to their long-run (linear) trend. Let’s think about this. I see a stock steadily rising from $1 in December 2010 to $2 in December 2012. Suddenly in January 2013 the stock goes to $4 deviating from the 2010-2012 trend. Would you seriously infer from this fact alone, that there’s a bubble? Come on. In an efficient market, if investors receive new information in January which they didn’t have in December, the price should react immediately to reflect that new information. If fundamentals have an exponential trend, so should prices. Where is the theory that suggests that fundamentals always change linearly with time?

But what really puzzled me is Flo’s remark further down in his post where he writes “…the price of a stock, which by definition is not much more than present value of (expected) future incomes…”. If you believe that stock prices are always equal to the present value of expected future earnings, the whole talk about bubbles becomes meaningless. In other words, the concept of a bubble only makes sense if you believe in some kind of market inefficiency that allows persistent deviations of asset prices from fundamentals.

The fact of the matter is that we can’t observe fundamental value, so there is no straightforward way to spot bubbles. And everyone who says otherwise should be regarded with suspicion. If there would be an easy and reliable bubble detection recipe (“just look at deviations from a linear trend”, “just look at price/earnings ratios”, etc.), you should be able to make lots of money following that recipe. And if a significantly large group of investors follow it, there would be no bubbles to be detected according to this recipe in the first place.

The recent experience with Robert Shiller’s cyclically adjusted price-to-earnings ratio (CAPE) nicely illustrates this problem. In 1996, Campbell and Shiller showed in a paper that the CAPE could predict the stock market returns in the past fairly well. They were able to spot both the dotcom bubble of the late 90s and the subprime bubble of the 00s before they burst by comparing the current CAPE to its long-run average of 16. Now, during the past two years, the CAPE was well above that value which apparently led a lot of people to stay out of stocks during this time. And guess what, they missed a pretty nice rally. So just because some indicator successfully predicted bubbles in the past does not mean it is of much use in the future.

On the Fears of Bubbles

Katharina recently posted some of her thoughts on the developments in asset markets since the start of the FED’s different unconventional monetary policy programs. I honestly do not know how to go about answering the post, as I personally am unable to get much out of the FT report. But let me give it a try. A couple of months back I posted something dubbed “How destructive are asset bubbles really?”, which I find myself still mostly agreeing with. Of course a lot of that argument is based on monetary policy being able to be effective, which might be somewhat limited given we’re up against the ZLB, but right now is not the place to go into that discussion again. When it comes to identifying whether a bubble is indeed forming or not, I shared some of my thoughts in this post on “The Science of Bubble Spotting”, which probably provides a decent starting point to build on. So let’s get into it.

Continue reading