Der Zufall in den Wirtschaftswissenschaften

Das diesjährige Generalthema von Pro Scientia, einer österreichischen Studienförderungsinitiative, ist der Zufall. Im Zuge dessen habe ich kürzlich einen Vortrag zum Thema mit dem Titel „Der Zufall in den Wirtschaftswissenschaften. Zwei prominente Beispiele“ gehalten, dessen Kurzzusammenfassung ich hier teilen möchte.

I. Einleitung

Die Unterscheidung zwischen Zufälligkeit und hohem Grad an Komplexität ist keine einfache. Ist etwa der Ausgang eines Würfelwurfs Zufall? Könnte man, wüsste man über sämtliche Ausgangs- und Randbedingungen wie etwa der exakten Neigung der Handfläche oder der genauen Anfangsgeschwindigkeit des Würfels Bescheid, den Ausgang nicht sogar vorab berechnen? Nach einiger Diskussion stellt die Grazer Pro Scientia Gruppe fest: Würfeln ist wohl nicht wirklich zufällig, aber komplex. Ähnlich sieht es mit den wirr erscheinenden Preisbewegungen am Aktienmarkt aus. Preise, die aufgrund von Angebot und Nachfrage an der Börse gebildet werden, spiegeln immerhin doch den Unternehmenswert wider, der wohl stark mit dem mehr oder weniger gut messbaren Unternehmenserfolg zusammenhängt. Rein zufällig kann der Preis somit nicht sein. Es scheint auch tatsächlich langfristige Trends und Zyklen zu geben, die kleinen, oft minütlich auftretenden Schwankungen wirken aber doch eher wie das viel zitierte weiße Rauschen. Im Umgang mit solch volatilen Bewegungen, deren insbesondere kurzfristigen Veränderungen kaum vorhersehbar sind, spielt es jedoch keine so große Rolle, ob es sich beim untersuchten Phänomen tatsächlich oder nur scheinbar um Zufall handelt. Denn der Zufall kann auch in Verbindung mit bekannter Dynamik als Instrument genutzt werden, um komplexe Systeme handhabbar zu machen. Im Folgenden stelle ich zwei Beispiele vor, bei denen es um die Zufälligkeit von Aktienpreisen geht. Im ersten Beispiel folgt der Zufall als Konsequenz einer volkswirtschaftlichen Theorie. Im zweiten wird der Zufall als Modellierungswerkzeug verwendet, um konkrete Probleme der Preisbestimmung finanzmathematisch zu lösen.

II. Effizienzmarkthypothese

Eugene Fama entwickelte die sogenannte Effizienzmarkthypothese (siehe Fama, 1970), die proklamiert, dass im aktuellen Preis einer Aktie bereits sämtliche aktuell verfügbaren Informationen eingepreist sind und Preisänderungen nur aufgrund neuer Information stattfinden. Durch das Analysieren historischer Kursentwicklungen oder fundamentaler, preisrelevanter Daten kann keine zusätzliche Information erlangt werden, weshalb es selbst der klügsten und geschicktesten Marktteilnehmerin nicht gelingen kann, den Mark langfristig zu schlagen, also systematisch Gewinne zu erzielen. Märkte arbeiten in diesem Sinne effizient. Eine Konsequenz dieser Theorie ist, dass Aktienpreise einem zufälligen Muster – mathematisch formuliert einem stochastischen, trendlosen Prozess – folgen. Die beste Prognose für einen zukünftigen Preis ist demnach der aktuelle Kurswert. Spekulationsblasen haben in diesem Bild von Finanzmärkten keinen Platz – sie können sich rein technisch nicht entwickeln oder zumindest nicht lange halten.

Einer der schärfsten Kritiker dieser Theorie ist Robert Shiller, dessen Forschungsgebiet sich unter anderem auf Blasenbildung in Aktien- und Immobilienmärkten erstreckt (siehe beispielsweise Shiller, 2015). Groteskerweise erhielten Shiller und Fama (gemeinsam mit Lars Peter Hansen) 2013 den Nobelpreis für Wirtschaftswissenschaften für ihre empirische Analyse von Kapitalmarktpreisen. Shiller schreibt:

Im Grunde besagt die Effizienzmarkthypothese, dass unterschiedliche Fähigkeiten nicht zu unterschiedlicher Investmentperformance führen. Diese Theorie behauptet, dass die klügsten Menschen nicht in der Lage sind, hinsichtlich der Investmentperformance besser abzuschneiden als die am wenigsten intelligenten – und zwar deshalb nicht, weil ihr überlegenes Wissen bereits vollständig in die Aktienkurse eingepreist ist. Wenn wir die Prämisse der Markteffizienz akzeptieren, ist klug zu sein nicht nur kein Vorteil, sondern daraus folgt unmittelbar auch, dass es kein Nachteil ist, nicht so klug zu sein. […] Was die erwartete Anlagerendite angeht, könnte man genauso gut zufällig Aktien auswählen.

Shiller weißt auf einen signifikanten Unterschied bezüglich Vorhersagbarkeit hin, den die klassische Effizienzmarkthypothese ignoriert: Während es durchaus plausibel erscheint, kurzfristige Änderungen als zufällig aufzufassen, stellt er die langfristige Gültigkeit der Effizienzmarkthypothese in Frage. Psychologische und kulturelle Effekte wie auch Unterschiede in Wissen und Erfahrung können laut seinen Theorien sehr wohl zu länger andauernden Über- oder Unterbewertungen führen, die sich in Spekulationsblasen manifestieren. Der exakte Zeitpunkt einer Trendumkehr ist jedoch auch für ihn nicht vorhersehbar, was das Ausnutzen eines solchen Wissens schwer macht. Die Geschichte und nicht zuletzt die Dotcom-Blase um den Jahrtausendwechsel und die Immobilienblasen im Vorfeld der globalen Finanzkrise scheinen ihm Recht zu geben.

III. Black-Scholes Modell

Das Black-Scholes Modell ist ein finanzmathematisches Modell zur Bewertung, also zur Bepreisung, von Optionen. Eine Option ist ein Finanzderivat, dessen Wert von der Preisentwicklung eines zugrundeliegenden Wertpapiers abhängt. (Anstelle eines Wertpapieres können auch andere volatile Einheiten wie etwa Zinsen, Wechselkurse oder aber auch der Temperatur- oder Niederschlagsverlauf fungieren.) Eine Option verleiht der Käuferin das Recht, niemals aber die Pflicht, das jeweilige Wertpapier zu einem späteren Zeitpunkt zum beim Vertragsabschluss festgesetzten Preis – dem sogenannten Strikepreis – zu kaufen oder zu verkaufen. Sollte der Preis des Wertpapiers zum Ausübungszeitpunkt im Falle einer Kaufoption unten dem Strikepreis liegen, würde die Käuferin ihr Recht nicht ausüben, sondern das jeweilige Wertpapier schlicht zum aktuellen Kurswert erwerben. Damit ist eine Option quasi eine Versicherung gegenüber Preisanstiegen oder Preisverfall – je nachdem ob das Recht zu kaufen oder das Recht zu verkaufen erworben wird. Optionen sind somit ein äußerst sinnvolles Finanzprodukt, mit dem sich Personen gegenüber Risiken absichern können. Beispielsweise sichern sich Fluggesellschaften zu einem gewissen Grad gegen steigende Kerosinpreise oder Landwirte gegen Ernteausfälle aufgrund von zu geringem Niederschlag ab. So wie bei vielen Finanzprodukten können Optionen jedoch auch für Spekulation verwendet werden.

Da für die Käuferin der Option kein Risiko entsteht, sondern sie ausschließlich profitieren oder neutral aus dem Geschäft aussteigen kann, ist es rational notwendig, für die Option einen positiven Preis festzusetzen. Ansonsten hätte der Verkäufer keinerlei Anreiz, sich auf das Geschäft einzulassen – there is no free lunch. Allerdings: Wie setzt man einen Preis fest, dessen Wert von einer unbekannten – zufälligen – Größe abhängt? Generell werden Optionen ebenso wie das zugrundeliegende Wertpapier an der Börse gehandelt. Somit entsteht durch Angebot und Nachfrage auf natürliche Art und Weise ein Preis. Nachdem der Verkäufer jedoch Risiko von der Käuferin übernimmt, ist unter anderem aus Gründen der Risikoabschätzung ein fundamentaler Modellpreis hilfreich.

Das Black-Scholes Modell wurde von Fischer Black und Myron Scholes unter Mitarbeit von Robert Merton (siehe Black and Scholes, 1973; Merton, 1973) entwickelt. Scholes und Merton wurden dafür 1997 mit dem Nobelpreis der Wirtschaftswissenschaften ausgezeichnet. Black war zu diesem Zeitpunkt leider bereits verstorben. Das Modell stellt eine Formel bereit, welche – zumindest für einfache Optionen – einen Preis berechnen kann. Der wichtigste Bestandteil des Modells ist – der Effizienzmarkthypothese folgend – ein stochastischer Prozess, welcher die Preisbewegung des zugrundeliegenden Wertpapiers modelliert. Dabei ist es nicht das Ziel, exakte Preise des Wertpapiers zu berechnen, sondern vielmehr das Risiko – also mehr oder weniger die Schwankungsbreite – der möglichen Preisentwicklungen abzubilden. Dieser stochastische Prozess wird mittels stochastischer Differentialgleichung beschrieben. Ähnlich wie deterministische Differentialgleichungen, die beispielsweise in der Physik verwendet werden, um Wellenbewegungen zu beschreiben, wird dadurch die Dynamik des Wertpapiers erfasst. Zufallsvariablen erzeugen zusätzlich zu einem generellen Trend, zufällige Störungen, welche das typische Zickzack-Muster im Verlauf von Aktienpreisen erzeugen. Das Ausmaß dieser zufälligen Störungen – deren Varianz – kann etwa aus vergangenen Kursen geschätzt und dementsprechend im Modell eingebaut werden. Die Eigenschaften dieses stochastischen Prozesses werden schlussendlich verwendet, um mittels mathematisch sehr ästhetischer Formel einen fairen Preis der Option zu berechnen. Fair bedeutet dabei, dass im Erwartungswert weder Käuferin noch Verkäufer Gewinn oder Verlust machen.

Das Black-Scholes Modell ist ein relativ einfaches Modell, das auf einer Reihe von realitätsfernen Annahmen basiert und deshalb umfangreicher Kritik ausgesetzt ist. Es war jedoch das erste dieser Art und legte den Grundstein für eine Reihe von weitaus ausgefeilteren Modellen, die sich des Zufalls bedienen, um Risiko in Modellen abzubilden.

IV. Zusammenfassung

Die Effizienzmarkthypothese und das Black-Scholes Modell zeigen auf beispielhafte Weise, welche Rolle der Zufall im Verständnis der Wirtschaftswissenschaften spielt. Ob es sich nun bei Preisbewegungen am Aktienmarkt tatsächlich um Zufall oder doch nur um eine hochgradig komplexe Angelegenheit handelt, ist wohl weiterhin unklar. Allerdings zeigt sich, dass stochastische Modellierung ein mächtiges Werkzeug darstellt, um beobachtete Zufälligkeit / Komplexität in den Griff zu bekommen beziehungsweise in Theorien einzubauen.

V. Literatur

Black, F. and Scholes, M. (1973). The pricing of options and corporate liabilities. Journal of Political Economy, 81(3):637–54.

Fama, E. F. (1970). Efficient capital markets: A review of theory and empirical work. The Journal of Finance, 25(2):383–417.

Merton, R. (1973). Theory of rational option pricing. Bell Journal of Economics, 4(1):141–183.

Shiller, R. J. (2015). Irrational Exuberance. Princeton University Press, Princeton, NJ, 3rd edition.

The Myths and Realities of the European Migration Challenge

Recently the Graz Economics Club invited Martin Kahanec an associate professor from Central European University Budapest to give a talk on migration in Europe from a labour market perspective. On his website Martin Kahanec writes:

There is no price tag attached to my hand stretched out to refugees, people threatened by wars, and violent regimes. The humanitarian argument prevails over any cost-benefit analysis. But as a labor economist, I firmly believe it is my obligation to help us better understand the labor market impacts of immigration.

Following this motivation he starts his talk with quoting several common fears on immigration: Migrants are low skilled, take our jobs, lower wages, abuse the welfare state, shop for welfare and increase crime rates. As a scientist he does not want to blindly believe such myths but rather tries to test these hypotheses to find out whether there is any empirical evidence supporting or rejecting them. Put differently, are such kind of fears justified?

Comparing skills of immigrants in Europe and natives, he finds no substantial differences. Migrants, however, tend to fill existing labor and skill shortages and they do so more flexibly than natives. He cites several studies which empirically reject the hypothesis of increasing unemployment due to migration. In fact, there is even some evidence for job creation triggered by migration in the long run. For instance, a nurse migrating to Austria to take care for a disabled person might not take away a job but rather create new ones: The home caring she is doing might have previously been carried out by a family member which consequently was not able to fully participate in the labour market. By employing a nurse from abroad the nursing job is created and the family member may return to his or her own job. When it comes to fears about migrants abusing our welfare systems, Martin Kahanec actually comes to a very different conclusion: Migrants seem not to abuse welfare benefits but rather suffer from a lack of access which should possibly be changed as a matter of fairness. He shows that post-enlargment migration had positive effects on GDP, GDP per capita and employment rates. Given Europe’s aging population we should not fear migrants but rather actively attract them to our countries. He concludes by stating

The current migration crisis in Europe offers a potential for a triple win:

  • Provide humanitarian help to refugees
  • Revamp our migration, asylum, and integration policies
  • Benefit from the new hands and brains that can boost our labor markets

Otherwise a triple loss looms.

Short-Selling in Immobilienmärkten: Fluch oder Segen?

In großen Teilen der Bevölkerung gelten Begriffe wie „Short-Selling“ (oder Leerverkauf) oder „Wetten gegen den Markt“ spätestens seit dem Ausbruch der letzten Finanzkrise als Unheilbringer und werden bösen Spekulantinnen zugeschrieben, die damit die Krise ausgelöst hätten. Short-Selling beschreibt generell eine Transaktion, die gewinnbringend ist, wenn Preise fallen. Ein einfaches Beispiel passend zum heutigen Valentinstag erklärt das Konzept: Ich gehe zu einem befreundeten Blumenhändler, borge mir dort 100 Rosen aus und verspreche, diese morgen wieder zurückzubringen. Der Blumenhändler ist skeptisch und verlangt deshalb eine Gebühr von 50€. Damit stelle ich mich an die Straße und verkaufe sie um 5€ das Stück. Dieser Preis erscheint schwerverliebten Passantinnen und Passanten am heutigen Valentinstag nicht unangemessen. Damit nehme ich 500€ ein. Am nächsten Tag finde ich leicht eine andere Blumenhändlerin, die heilfroh ist, dass ich am Tag nach dem Valentinstag – vermutlich ein schlechter Tag für das Blumengeschäft – Rosen kaufen möchte. Ich nehme ihr 100 Stück ab und bezahle dafür 300€. Diese Rosen bringe ich dem ursprünglichen Blumenhändler wie versprochen zurück. Dieses Geschäft hat sich für mich gelohnt: Durch den Preisrückgang von 5€ auf 3€ pro Stück innerhalb eines Tages konnte ich (die Leihgebühr eingerechnet) einen Gewinn von 150€ erzielen – durch short-selling!

Wenn es sich bei dem Gut, bei dem ich mit fallenden Preisen rechne, jedoch nicht um leicht-handelbare Rosen, sondern vielmehr um Immobilien handelt, wird die Sache schwieriger. Es ist schwer vorstellbar, sich ein Haus auszuborgen, dieses zu verkaufen und kurze Zeit später ein „vergleichbares“ Objekt, mit dem auch der Verleiher des ursprünglichen Hauses zufrieden ist, zurückzukaufen. Die Schwierigkeiten entstehen einerseits durch die komplizierte und langwierige Transaktion von Immobilien und andererseits dadurch, dass jedes Haus – schon aufgrund der unterschiedlichen Lage – anders ist und damit das zuvor genannte „vergleichbare Objekt“ tendenziell nicht existiert.

Aber was bedeuten „zu hohe Preise“ bzw. überhitze Märkte überhaupt? Sind Käuferinnen von Immobilien nur aufgrund einer erwarteten zukünftigen positiven Preisentwicklung bereit, hohe Preise zu bezahlen, spricht man von einer Immobilienblase (laut der Definition einer Blase des Nobelpreisträgers Joseph Stiglitz). Die Intuition dahinter ist einfach: Käufer sind bereit einen Preis zu bezahlen, die nichts mehr mit dem tatsächlichen fundamentalen Wert einer Immobilie zu tun hat, da sie der Meinung sind, das Haus zu einem späteren Zeitpunkt zu einem noch höheren Preis wieder verkaufen zu können. So gesehen ist der Immobilienkauf in diesem Fall einer Wette für den Markt gleichzusetzen. Short-selling – also die Wette gegen den Markt – ist das Gegenstück dazu. Gehen viele Marktteilnehmer von weiter steigenden Preisen aus, steigen diese tatsächlich und zwar solange, bis sich niemand mehr findet, der die Immobilie zu einem noch höheren Preis kaufen würde. Es profitieren also alle bis auf den allerletzten Käufer von dieser Geschäftsstrategie. Umgekehrt führt massenhaftes Short-Selling zu fallenden Preisen.

Ist es nicht möglich, in einem Markt short-selling zu betreiben, können Preise immer weiter noch oben getrieben werden, solange bis die resultierende Blase womöglich platzt – mit verheerenden Konsequenzen. Marktteilnehmerinnen, die diesem überzogenen Boom nicht trauen, haben kaum Möglichkeiten dieser Preisentwicklung entgegen zu steuern und können praktisch nur zusehen und abwarten.

Eine Möglichkeit, short-selling im Immobilienmarkt zu ermöglichen, sind Finanzderivate, deren Wert von einem Immobilienpreisindex abhängen. Diese Preisindices steigen, wenn im Durchschnitt Immobilienpreise (nachdem Unterschiede in der Lage und den strukturellen Charakteristiken der einzelnen Objekte berücksichtigt wurden) in einem Markt – also etwa einer bestimmten Stadt – steigen. Ist man davon überzeugt, dass die aktuellen Preise zu hoch sind und eine Korrektur nach unten in Kürze zu erwarten ist, könnte man durch geeignetes Kaufen und Verkaufen von Derivaten short-selling betreiben. Eine Korrektur überhitzter Märkte wäre damit auch ohne das Platzen von Blasen möglich. Man könnte sich sogar vorstellen, dass Zentralbanken bei überhitzten Märkten korrigierend eingreifen und würde damit dem Staat eine neuartige Einflussmöglichkeit eröffnen. Gleichzeitig ergibt sich dadurch jedoch auch schwer abschätzbares Spekulationspotential.

Der Nobelpreisträger Robert Shiller ist ein Anhänger dieser sogenannten Immobilienderivate und erklärte deren Sinnhaftigkeit beispielsweise letzte Jahr in einem Blogeintrag. Zur Zeit werden Immobilienderivate bereits an einigen Börsen gehandelt. Das Handeslvolumen ist jedoch bei weitem zu gering, um großen Einfluss zu ermöglichen. Das Unvermögen bei Blasenbildungen direkt entgegen wirken zu können, ist angsteinflößend, insbesondere wenn man sich die aktuellen Preisentwicklungen in den großen amerikanischen Städten vor Augen führt. Immobilienderivate könnten in der Zukunft möglicherweise Abhilfe schaffen. Welche Eigendynamik diese Märkte allerdings entwickeln könnten, ist schwer abschätzbar.

Stammtischmythen im Faktencheck: Sind öffentliche Schulden wählbar?

Wer kennt das nicht: Pseudopolitische Diskussionen, bei denen mit überzeugend wirkenden Fakten argumentiert wird. Anekdotische Evidenz ist schnell parat: Das ein oder andere konkrete Beispiel wird zum Beleg einer allgemein gültigen These hochstilisiert und muss dafür herhalten, eine gesamte Theorie zu bestätigen. Meistens klingt das ganze Konstrukt auch sehr plausibel und zu schnell gibt man sich mit dem Gedanken zufrieden, dass die Person, welche diese Thesen so selbstsicher verbreitet, sich bestimmt eingehend mit dem Thema befasst hat oder zumindest jemanden kennt, der jemanden kennt, der das alles ja viel viel besser weiß…

Eine dieser Thesen, die ich immer wieder höre, ist die, der “Schuldenpartei SPÖ”. Die ÖVP, die sich ja gern als wirtschaftsfreundliche Partei gibt und der Gegenspielerin SPÖ jegliche Wirtschaftskompetenz abspricht, ist in der Lage, mit den öffentlichen Finanzen hauszuhalten, während die SPÖ blindlings in die Schuldenfalle tappt. Schlagwörter wie “Nulldefizit”, “deficit spending” und “Kreisky-Ära” sind parat und die gelernte Österreicherin weiß ganz genau, worum es geht.

Tendenziell werden öffentliche Schulden auch als furchtbares Übel angesehen. Die magische, aber nicht wirklich relevante 60%-des-BIPs-Grenze, schwebt wie ein Damoklesschwert über Europa. Alles darüber ist schrecklich, alles darunter toll. Allzu oft wird übersehen, dass Staaten oder Gebietskörperschaften im Gegensatz zu menschlichen Schuldnern kein automatisches natürliches Ende erleben: “mors certa hora incerta” gilt hier nicht. Darüber hinaus verfügen Menschen auch nur selten über Steuerhohheit, mit der sie sich ihr Einkommen quasi selbst regeln können. Dies sind nur einige Aspekte, die erklären, warum die Probleme von privaten Schulden nicht direkt auf öffentliche Schulden übertragbar sind. Schulden sind per se weder gut noch schlecht. Aber die Eigenschaften von Staatsschulden ist hier gar nicht das Thema (diese wurden auf diesem Blog aber bereits mehrmals zumindest am Rande diskutiert: siehe hier und hier). Vielmehr geht es in diesem Artikel darum, die These zu testen, ob “SPÖ-Regierungen” tatsächlich mit höheren Schuldenständen in Zusammenhang stehen. Da ich diese These mehrmals im Zusammenhang mit dem Haushaltsgebaren von Gemeinden gehört habe, ziehe ich nun auch diese heran und betrachte die öffentlichen Schulden der steirischen Gemeinden. Daten zu den Schuldenstäden pro Kopf für 2013 und 2014 sind bei Statistik Austria zu finden. Um Gemeinden nach SPÖ- und ÖVP-Zugehörigkeit zu klassifizieren, ziehe ich die Ergebnisse der Gemeinderatswahlen 2005 und 2010 heran, welche das Land Steiermark zum Download bereit stellt.
Schulden sind eine Sache, die nicht plötzlich entsteht oder plötzlich verschwindet. Maßgeblichen Einfluss darauf hat man, wenn man über längere Zeit eine gewisse Politik verfolgen kann. Ideologische Einflüsse auf den Schuldenstand sind daher dann zu erwarten, wenn über längere Zeit, bevor der Schuldenstand gemessen wird, dieselbe Partei an der Macht ist. Das ist auch der Grund, warum ich die Wahlergebnisse von 2005 und 2010 heranziehe, um die Schulden für die Jahre 2013 und 2014 zu analysieren. Zum Zeitpunkt der Analyse, waren die Schuldenstände von 2015 noch nicht vollständig abrufbar. Darüber hinaus gab es mit der Gemeindestrukturreform in der Steiermark 2015 wesentliche Änderungen, welche die Analyse unsauber machen würde. Um den Einfluss von Einzeleffekten gering zu halten, betrachte ich im folgenden stets die durchschnittlichen pro Kopf Schulden aus den Jahren 2013 und 2014.

Zu aller erst: Wie kann man eine Gemeinde als SPÖ- oder ÖVP-Gemeinde klassifizieren? Das ist gar keine so einfache Frage und diverse Strategien sind denkbar. Ich habe mich hier dafür entschieden, ausschließlich jene Gemeinden heranzuziehen, in denen sowohl 2005 als auch 2010 dieselbe Partei stimmenstärkste Kraft wurde. Die folgende Abbildung zeigt die Wahlergebnisse der steirischen Gemeinden bei den Gemeinderatswahlen 2005 und 2010 (bzw. 2008 und 2012 in der Landeshauptstadt Graz). Die Analyse basiert auf den Grenzen von 2013, also jener Struktur vor der allgemeinen Gemeindestrukturreform, aber nach der Zusammenlegung von Buch-Geiseldorf mit Sankt Magdalena am Lemberg und Hafning bei Trofaiach mit Gai und Trofaiach.

wahl

Ergebnisse der steirischen Gemeinderatswahlen 2005 und 2010 (bzw. in Graz 2008 und 2012).

 

Die nachfolgende Abbildung zeigt die Zuordnung zu schwarzen und roten Gemeinden nach der oben beschriebenen Strategie. Damit sind noch 489 von 539 Gemeinden im Rennen. (Man beachte die politische Persistenz in der grünen Mark!) Davon sind 350 der ÖVP und 139 der SPÖ zuordenbar. Jene Gemeinden, die nicht eindeutig einer der beiden Großparteien zugeordnet werden konnten, sind grau eingefärbt.

zuordnung

Zuordnung von Gemeinden zu Parteien.

 

Wie sieht es nun mit dem Schuldenstand in den von der SPÖ bzw. ÖVP geleiteten Gemeinden aus?

Durchschnittliche pro Kopf Schulden (2013-2014) der steirischen Gemeinden.

Durchschnittliche pro Kopf Schulden (2013-2014) der steirischen Gemeinden.

Im Mittelwert ist der Schuldenstand von schwarzen Gemeinden mit 1.581 € pro Kopf de facto gleich hoch wie jener von roten Gemeinden (1.582 €). Betrachtet man die gesamte Verteilung wird ersichtlich, dass es tatsächlich kaum Unterschiede zwischen roten und schwarzen Gemeinden gibt.

 

durchschnittliche_schulden

Durchschnittliche pro Kopf Schulden (2013-2014) in schwarzen und roten Gemeinden.

 

Die höchsten Schulden hat die kleine ÖVP-Gemeinde Teufenbach in Murau. (Bad Radkersburg hatte sogar noch höhere Schulden, da in dieser Gemeinde jedoch 2005 eine Bürgerliste knapp vorne lag und 2010 die ÖVP stimmenstärkste Partei wurde, fließen diese Daten nicht in die Analyse mit ein.)

Auch ein additives Probit-Modell, welches die Wahrscheinlichkeit modelliert, dass bei gegebenem pro Kopf Schuldenstand eine SPÖ-Gemeinde vorliegt, lehnt jeglichen Unterschied zwischen den beiden Gemeindetypen ab. Gäbe es den probagierten Zusammenhang zwischen hohen Schulden und SPÖ-Gemeindeführung, würde man einen steigenden Verlauf des geschätzten Effekts erwarten, der deutlich von Null verschieden ist. Der geschätze Verlauf hat damit jedoch rein gar nichts zu tun.

schulden_effekt

Output eines additiven Probit-Modells.

 

(Für Statistik-Interessierte: Die grau gepunktete Linie gibt das Null-Niveau und die schwarz gestrichelten Linien ± 2 Standardaweichungen an. Die schwarzen Striche am unteren Rand stellen die Beobachtungen dar. Aufgrund der wenigen Beobachtungen im oberen Bereich ergeben sich dort sehr große Standardfehler.) Ein Standard-Probit-Modell kommt zu einem vergleichbaren Ergebnis.

Man könnte sich nun noch überlegen, dass es nicht genügt, stimmenstärkste Partei zu sein, um die eigenen politischen Vorstellungen im großen Stil umzusetzen. Als Robustheitscheck wiederhole ich die Analysen nun auch für den eingeschränkten Datensatz, der nur jene Gemeinden inkludiert, in denen die stimmenstärkste Partei bei beiden Wahlen zumindest 50% der Stimmen erhalten hat. Jene Gemeinden, die dieses Kriterium erfüllen, sind in der folgenden Abbildung dargestellt.

absolute_Mehrheiten

Zuordnung von Gemeinden, in denen die stimmenstärkste Partei in beiden Wahlen mindestens 50% der Stimmen erhalten hat.

 

In der Analyse sind nun noch 308 ÖVP-Gemeinden und 119 SPÖ-Gemeinden inkludiert. Die Ergebnisse ändern sich dadurch jedoch kaum: Die mittleren Schulden belaufen sich in SPÖ Gemeinden nun auf 1.587 € pro Kopf und in ÖVP Gemeinden auf 1.549 €.

Die Stammtischhypothese der “Schuldenpartei SPÖ” lässt sich hier also in jeder Hinsicht widerlegen. In der nächsten Diskussion haben Sie, liebe Leserinnen und Leser, einen klaren Argumentationsvorteil! Sie müssen zumindest in dieser Frage nicht mehr auf Intuition zurückgreifen, sondern haben handfeste Daten zur Hand. Aber vergessen Sie bitte nie: Eine Analyse kann nur über ihren tatsächlichen Gegenstand der Analyse Aussagen treffen. Nachdem ich mich auf steirische Gemeinden in der jüngeren Vergangenheit beschränkt habe, können diese Aussagen also nicht direkt auf das Verhalten der Landes- oder Bundesparteien, auf die Finanzgebaren anderer österreichischer Gemeinden oder auf andere historische Zeiträume übertragen werden. Dafür müssten separate Analysen durchgeführt werden.

The best age to get married if you don’t want to get divorced in Austria

Recently, the Washington Post published the article “The best age to get married if you don’t want to get divorced”.

Obviously, the best strategy to avoid divorce is to simply not get married at all. If you however prefer sticking to this centuries-old ritual, you may at least want to minimize the risk of divorce as a split-up’s side-effects such as emotional disorder and high financial costs are commonly perceived negatively. Nicholas H. Wolfinger’s (a sociologist at the University of Utah) findings help couples to identify an ideal age of permanently binding themselves to one another. His main advise is “Wait to get married but not too long.”.

In former times in the US the relationship between age at marriage and divorce risk was negative and almost linear: The older you were, the lower the chances of divorce. “It’s no mystery why people who marry as teens face a high risk of divorce. Just recall your high school boyfriend or girlfriend. Along with the exhilaration of first love often came jealousy, insecurity, pressure from parents or friends, and tearful doubts about the future. Now imagine getting married under the same conditions. […] Most youthful couples simply do not have the maturity, coping skills, and social support it takes to make marriage work. In the face of routine marital problems, teens and young twenty-somethings lack the wherewithal necessary for happy resolutions.”

Postponing marriage until the mid-twenties sharply declined the divorce risk but also past this age the risk still decreased although at a lower rate.

The analysis of recent data in contrast suggests that the negative relationship between age at marriage and divorce risk is not present any more throughout the entire life span. Whereas teen marriages are still highly risky, data shows a trend reversal thereafter. Wolfinger analyzed data collected between 2006 and 2010 and finds “that prior to age 32 or so, each additional year of age at marriage reduces the odds of divorce by 11 percent. However, after that the odds of divorce increase by 5 percent per year. The change in slopes is statistically significant.” It seems that he detected an ideal age for marriage: somewhere around 30.

USA_1995

USA_2006-10

Wolfinger uses generalized additive models (GAM) that permit non-linear, non-parametrically estimated functional forms in regression models and are therefore ideal candidates to find out more about the shape of dependent effects. I love playing around with data and I am a big fan of GAMs. So I decided to re-do Wolfinger’s calculations with data from my home country Austria. Although Wolfinger states the main class of statistical models he uses to perform this study, any kind of details are left out. Besides that, Statistics Austria does only provide highly aggregated data and prohibits certain data combinations that would be essential to perform such a kind of analysis. Still, I tried to use all the publicly available data together with a powerful collection of statistical tools to analyses the relationship between age at marriage and divorce risk in Austria for the year 2014. I had to rely on (at least for statisticians) highly unattractive things such as averaging, constancy assumptions, poor model performances and extrapolations. This is why details should be interpreted with care. Still, I am convinced that my methodology is able to measure the general tendencies in the relationship of interest.

I performed the analysis separately for women and men as the usual age for getting married is still very distinct (men 32.4 and women 30.0 years). The figures below show the results.

Relationship between divorce risk and age at marriage for women in Austria in 2014

Relationship between divorce risk and age at marriage for women in Austria in 2014

Relationship between divorce risk and age at marriage for men in Austria in 2014

Relationship between divorce risk and age at marriage for men in Austria in 2014

The risk of divorce sharply declines with age until around 30 for men and 28 for women. Thereafter the risk more or less stabilizes. (It slightly rises until the age of 35 before it decreases again at a very low rate.) It seems that in Austria postponing marriage leads to an almost ever-decreasing risk of divorce. (This is even better seen for the long data series until the age of 60, although less observations in this age groups may bias the results.)

So, marrying around the age of 30 seems to be a good deal for Austrian couples that do not want to wait to get married until they reach their 50ths or 60ths. Couples tying the knot later in their lifes can expect a long/ever-lasting (hopefully happy) marriage.

(And for all kids reading this post: Please don’t marry your first love… He/she is probably not Mr. or Ms. Right…)

Relationship between divorce risk and age at marriage for women in Austria in 2014 (long series)

Relationship between divorce risk and age at marriage for women in Austria in 2014 (long series)

Relationship between divorce risk and age at marriage for men in Austria in 2014 (long series)

Relationship between divorce risk and age at marriage for men in Austria in 2014 (long series)

Re: Bitte weitersagen: Modellannahmen sind keine Werturteile!

In den letzten beiden Beiträgen wurde hitzigst im weitesten Sinne über Modellannahmen diskutiert. Beim Lesen sind mir einige Dinge in den Sinn gekommen, die ich hier gerne als Kommentare bzw. Denkanstöße beitragen möchte.

  1. Max behauptet, Modellannahmen wären strategische Vereinfachungen, die einem helfen, die wesentlichen Aspekte der Realität von den unwesentlichen zu trennen. Das mag in der Theorie stimmen, aber tut es das auch in der Praxis? Sind Modellannahmen nicht allzu oft von Mach- bzw. Rechenbarkeit getrieben? Ist euch die Aussage „Wir machen das so und so, weil nur dann eine analytische Lösung existiert.“ noch nie untergekommen? In einer perfekten Welt würde Modellierung wohl so funktionieren, wie Max es beschreibt. Ich glaube aber nicht (Sic! Ein Glaubenssatz!), dass wir in solch einer idealen Welt leben. Darüber hinaus denke ich auch nicht, dass es überhaupt durchführbar ist, Modellierung ausschließlich durch strategische und objektiv einwandfreie Überlegung zu bewerkstelligen. Und hier kommt wohl Wolfgangs Zugangsweise ins Spiel: „Die Entscheidung, welche nötigen und vereinfachenden Annahmen getroffen werden, liegt natürlich beim Modellbauer und sind in einem starken Ausmaß Werturteile.” Ich würde das „im starken Ausmaß“ nicht unterschrieben, aber dieser Zugang entspricht im Wesentlichen sicherlich oftmals der Realität. Wer hat also recht? Irgendwie doch beide, Max und Wolfgang. Während Max eine normative Herangehensweise wählt („Wie sollte Modellierung aussehen.“), geht Wolfgang den deskriptiven Weg („Wie sieht Modellierung tatsächlich aus.“). Die beiden behandeln also unterschiedliche Probleme, weswegen diese hitzige Diskussion darüber zumindest für mich nicht ganz nachvollziehbar ist.
  1. Katharina Maria unterschiedet zwei Zwecke von Modellen: „Ich glaube, du musst zwischen dem Modell selbst und, wenn dies der Zweck des Modelles ist, seiner Funktion einen Teil der Realität abzubilden unterscheiden. Im letzten Fall, kannst du meiner Meinung nach nie wissenschaftlich feststellen, ob deine Annahmen wirklich korrekt sind bzw. ob du die richtigen Annahmen getroffen hast, denn auch Modelle mit falschen Annahmen generieren richtige Forecasts und vice versa. In ersterem Fall würde ich das Modell mit einem logischen Argument vergleichen und das kann deduktiv korrekt sein, wie ein mathematischer Beweis eben einfach logisch richtig ist, … das hat dann mit Werturteilen wirklich wenig zu tun.“ Dem stimme ich grundsätzlich zu. Ein mathematisches Modell ist im Grunde ein Theorem, das aus den Annahmen (welche zuvor sauber definiert werden müssen) durch logische Schlussfolgerung Eigenschaften ableitet. Diese Eigenschaften in Frage zu stellen, ist wenig sinnvoll, da sie direkte Implikationen der Annahmen sind. Sobald ein Modell jedoch die schöne, mathematische Welt verlässt und dafür miss-/ge-braucht wird, um die tatsächliche Welt zu beschreiben, ist es mit der Exaktheit auch schon wieder vorbei. Denn die Richtigkeit der Eigenschaften und Implikationen innerhalb des Modells sagen nichts über die Richtigkeit außerhalb des Modells aus – ob ein Modell in der Realität also brauchbar ist, ist eine gänzlich anders geartete Frage. Zwei Probleme sehe ich im obigen Statement dennoch: Zunächst halte ich es für problematisch, die Frage nach der Güte eines Modells mit der Produktion richtiger „Forecasts“ zu beantworten. Ein Modell kann durchaus die Vergangenheit und vielleicht auch die Gegenwart gut beschrieben, aber für die Zukunft komplett versagen. Die Welt, in der wir leben, ist glücklicherweise komplex genug, um uns ständig neu zu überraschen. Möchte man Mechanismen verstehen, ist es wichtig die Dynamiken richtig abzubilden und nicht unbedingt akkurate zukünftige Vorhersagen zu treffen. Die Vorhersagekraft eines Modells spielt meines Erachtens nach nur eine untergeordnete Rolle in der Validierung desselben. (Selbstverständlich hängt dies natürlich auch vom letztlichen Zweck eines Modells ab.) Andererseits möchte ich betonen, dass die Unterscheidung von Modell und Modellannahme – sit venia verbo – sinnlos ist. Die Annahmen sind grundlegender Teil eines jeden Modells und können niemals davon losgelöst betrachtet werden.
  1. Max vertritt die These – zumindest habe ich das so aufgefasst – dass ökonomisches Arbeiten darin besteht, ein theoretisches Modell zu formulieren und daraufhin die Gültigkeit des proklamierten Mechanismus anhand von Daten zu bestätigen oder zu falsifizieren. Vielmehr noch meint er, dass die Gültigkeit von Annahmen durch das Füttern des Modells mit empirischen Daten und einem „guten“ (also im Rahmen der Erwartungen liegenden) Ergebnis bestätigt werden kann. Das ist zwar sicherlich eine recht praktikable Herangehensweise (wenn nicht sogar eine der wenigen tatsächlich durchführbaren), aber dennoch muss festgehalten werden, dass Daten nie und nimmer ein Modell bestätigen können. Das Beste, was erwartet werden kann, ist, dass Daten ein Modell nicht grundsätzlich widerlegen. Das heißt, dass die Aussage „Dieses Modell trifft nicht zu.“ nicht getätigt werden kann. Die Aussage „Dieses Modell ist wahr.“ ist damit aber noch lange nicht bestätigt. Zugegebenerweise legt natürlich ein Nicht-Widerlegen durch sehr viele unterschiedliche aber gleichgeartete Datensätze die Vermutung nahe, dass das Modell, welches – wie ich nochmals betonen möchte – niemals ohne seine zugrundeliegenden Annahmen gedacht werden darf, wohl nicht ganz so falsch sein wird. Aber das ist natürlich kein Beweis!
  1. Der Ton der Unterhaltung: Ich finde Moralisieren öde, weil es zum Einen eine Diskussion erstickt und zum Anderen kaum auf Interesse der Leserschaft stößt. Ich denke, wir sind alle alt genug, um selbst entscheiden zu können, welchen Ton wir in welcher Situation als angemessen erachten und es steht uns allen frei, diesen auch zu verwenden.