Präsident als Hüter der Präferenzen

Ein österreichischer Präsidentschaftskandidat würde es wagen, der stimmenstärksten Partei einer Nationalratswahl die Regierungsangelobung zu verweigern, wenn sie in ihrem Programm europafeindliche Politik vertritt. Aufgrund dieses angekündigten Wagnisses wurde diesem Präsidentschaftskandidaten mangelndes demokratisches Verständnis vorgeworfen. Wie unhaltbar dieser Vorwurf ist und wie sehr gerade diese Ankündigung den Wert des Bundespräsidentenamts hervor streicht, wird im Folgenden mit einem ganz einfachen und doch wissenschaftlichen Ansatz dargelegt.

Zur Sache

Auch die ökonomische Disziplin beschäftigt sich mit den Herausforderungen von Wahlen. Die wohl zentrale Fragestellung hierbei: in wie weit begünstigt das konkrete Wahlverfahren und der darum bestehende demokratische Rahmen ein Ergebnis, welches den tatsächlichen Präferenzen der Wähler und Wählerinnen entspricht (vgl. Hindriks/Myles 2006, S. 301ff, Moulin 2004, S. 107ff). Nun sei folgendes Beispiel für zukünftige Nationalratswahlen angenommen:

  • In Österreich gibt es fünf Parteien (A,B,C,D,E).
  • Während eine Partei (A) eine extreme Position  am Rand des politischen Spektrums vertritt, verorten sich die vier anderen Parteien (B,C,D,E) rund um die politische Mitte.
  • Die Bevölkerung lässt sich hinsichtlich ihrer Präferenzen in fünf unterschiedlich große (%) Gruppen teilen (a,b,c,d,e).
  • Die Präferenzen jeder einzelnen Bevölkerungsgruppe lassen sich durch eine entsprechende Reihung der fünf Parteien darstellen (siehe Tab. 1).

Tabelle_Anteile und Präferenzen

Wenn sich nun alle Wähler und Wählerinnen am Stimmzettel der Nationalratswahl für die von ihnen am meisten präferierte Partei entscheiden, gibt es im dargestellten Beispiel eine klar stimmenstärkste Partei (A). Zugleich ist diese Partei für die Mehrheit der Bevölkerung (b,c,d,e) die schlechtestmögliche Wahl. Gäbe es nun kein Bundespräsidentenamt und würde automatisch die stimmenstärkste Partei den Auftrag zur Regierungsbildung bekommen, wäre dies klar gegen die eigentliche Präferenz der Bevölkerung. Jedenfalls wäre ein gut informierter Bundespräsident also auch gut beraten, die stimmenstärkste Partei nicht anzugeloben.

Nach bestem Wissen und Gewissen

Da der anfangs erwähnte Bundespräsidentschaftskandidat mehrmals festgestellt hat, dass er die europafeindliche Politik einer Partei für die schlechtestmögliche Wahl halte und die Mehrheit der österreichischen Bevölkerung abseits des politischen Extrems vermute, gilt: gerade die Angelobung dieser Partei wäre wider seines besseren demokratischen Wissens.

So einfach und plakativ das Beispiel gehalten ist, behält die Schlussfolgerung auch darüber hinaus ihre Gültigkeit, solange nur die Mehrheit der Bevölkerung mehrheitsfähige Koalitionsvarianten ohne die stimmenstärkste Partei präferiert. Dies darf als gegeben angenommen werden, wenn besagter Präsidentschaftskandidat mehrheitlich ins Amt gewählt wird. Somit ist seine Ankündigung konsistent mit wahrhaft demokratischem Verständnis.

Referenzen

Hindriks, Jean / Myles, Gareth (2006): Intermediate Public Economics. Cambridge: MIT Press.

Moulin, Herve (2004): Fair Division and Collective Welfare. Cambridge: MIT Press.

Microeconomics of Everyone: Institutions and the Human Life Cycle

On the court of economics

Microeconomics deals with the behaviour of individual economic units and one important topic in this respect is the optimal use of limited resources (Pindyck and Rubinfeld, 2009, pp. 26-27). When it comes to limited resources there is one fundamentally relevant for all humans: time. Mainstream economic teaching deals with the use of time especially with respect to the optimal mixture of leisure and labour in order to income-based consumption (Burda and Wyplosz, 2009, p. 107).Also in an strictly economic perspective there may be more than these two alternatives to invest one’s time though — e.g. training and education — and one may question modelling the motivation of human behaviour within such superficial and exclusive framework. Although individual human behaviour for sure follows rational deliberations and adopted objectives, it first of all is motivated also by needs (Heckhausen and Heckhausen, 2010, p. 3).To this effect it is no surprise that according to a traditional definition economic science has to deal with needs or, more precisely, the spectre of activities serving the satisfaction of human needs (Wöhe and Döring, 2008, p. 1). The variety and complexity of human needs finally hints on the actual complexity of human behaviour and why it is guided by explicit and implicit rules. In economics such rules often are called institutions and exemplary try to ban opportunism and establish some predictability (Kasper and Streit, 2005, p. 2). Predictability it is what sometimes is supposed also for the course of human lives. It is this supposition — not any databased fact — this analysis deals with. The solely objective: sketch a model that is able to illustrate how institutions may impose a standardized human life cycle on members of modern societies.

Let’s play theory

First, a psychological framework is chosen whose complexity, as a precaution, does not excel the capability of minds believing in mainstream economic models. An adequate example seems to be given by the ERG theory of Alderfer (1972). It divides human needs in only three classes: existence needs, relatedness needs and growth needs. Existence needs as a classification with regard to economics especially refer to consumption. Relatedness needs refer to social and external esteem while growth needs as a classification refer to internal esteem and self actualization. Some underlying assumptions about the priority and interdependence of these three classifications may be captured in the following principals:

satisfaction-progression-hypotheses (satpro)

  • Satisfaction (sat) of existence needs (e) increases the dominance of relatedness needs (r) by their intensification (int).
  • Satisfaction of relatedness needs increases the dominance of growth needs (g) by their intensification.

frustration-hypotheses (fru)

  • Dissatisfaction (dis) of existence needs let their dominance increase by proportional intensification.
  • Dissatisfaction of relatedness needs let their dominance increase by proportional intensification.
  • Dissatisfaction of growth needs let their dominance increase by proportional intensification.

frustration-regression-hypotheses (frureg)

  • Dissatisfaction of relatedness needs also increases the dominance of existence needs by proportional intensification.
  • Dissatisfaction of growth needs also increases the dominance of relatedness needs by proportional intensification.

Figure_SystemView

For simplicity this analysis does not apply all parts and interpretations of the underlying theory and the adopted ones are also applied in a simplified manner. Furthermore, it adds some assumptions to complete a system dynamics model of human behaviour (see fig. 1):

satisfaction-adaptation-hypotheses (satadap)

  • Needs constantly reappear according to a minimum amount (min) to be satisfied.
  • This minimum adapts in a logistic way to the level of satisfaction experienced.
  • Satisfaction only and directly depends on individual emphasis (emp) and the correspondingly dedicated budget (bud) of effort.
  • Individual emphasis is determined by the maximum of either dissatisfaction ot the minimum appearance anticipated by habit or some institutional necessity – like university (uni), a full-time job (job) or family (fam).

Screenplay

The institutions selected to mention rather occur sequential in human life cycle and probably demand to emphasize different classification of needs. In favour of an illustrative result it is assumed:

  • Studying at the university only implies that a large part of effort is dedicated to the satisfaction of growth needs.
  • After some years of studying the first full-time job is assumed to occur and require an even bigger part of daily time dedicated to the satisfaction of existential needs solely.
  • After some years within relatedness needs dominate a decision in favour of a family follows and from now on dedicates a given amount of effort to the satisfaction of relatedness needs.

Building a whole model on nothing but assumptions seems questionable, even more when there is not any underlying data applied for the hypothetical coefficients, the starting values for several state variables or the timing and extent of institutional limitations applied. Any ‘exemplary’ setting (see app. A) seem equally ‘arbitrary’. Every similarity between generated result and reality exists only by chance. The difference between ‘calibration’ and ‘manipulation’ vanishes. What stays, though, is the fun, playing at the buttons in order to illustrate a scenario for the aspired dramatic screenplay (see fig. 2):

  • University at first may imply an engorgement with regard to growth needs, while the rising concious about satisfied existence needs triggers relatedness needs.
  • The increased satisfaction of growth needs let the minimum appearance increase too, which causes trouble when the full-time job does not allow for full satisfaction of growth needs anymore.
  • While the minimum appearance of existence needs adapts towards the imposed satisfaction, the tensed situation leads to even more dissatisfaction of relatedness needs.
  • The thereby provoked decision in favour of a family in turn distorts the dominance of needs again implying once more a dissatisfaction of growth needs.
  • This in turn intensifies relatedness needs again and let their dissatisfaction increase to a long-term extent although family still imposes corresponding effort.

Figure_Dissatisfaction

Barefaced interpretation

Within this screenplay institutions force people to emphasize the satisfaction of needs partly in contrast to their felt intensification. This leads to a rather abrupt distortion — engorgement of some needs simultaneous to the dissatisfaction of others. Quarter- and mid-life crises as well as enduring unmet relatedness needs occur as part of the human life cycle.

Why? Because the model says so. Why? Because some people think so. Why? Because to some extent it seems plausible and we maybe should discuss about restrictions we face, when we try to allocate our time — a resource perceived scarcer every year of our life using it path depended and partly far from economic optimality. So maybe the model explains nothing but the idea that we should try to explain ourselves a bit more. Even then do not underestimate this insight.

 

Appendix A: setting

  • coefficients: fru=0.3, frureg=0.05, satpro=0.05, satadap=0.1
  • starting vlaues: sat =min = int = emp for e =4, r=3, g=6
  • institutional restrictions: uni=8,  job=8, fam=3 of bud=16

References

  • Alderfer, Clayton (1972). Existence, Relatedness, and Growth: Human Needs in Organizational Settings. New York: Free Press.
  • Burda, Michael and Charles Wyplosz (2009). Macroeconomics: A European Text. 5th ed. Oxford: University Press.
  • Heckhausen, Jutta and Heinz Heckhausen (2010). Motivation und Handeln. 4th ed. Berlin: Springer.
  • Kasper, Wolfgang and Manfred E. Streit (2005). Institutional Economics: Social Order and Public Policy. Reprint. Cheltenham: Edward Elgar.
  • Pindyck, Robert and Daniel Rubinfeld (2009). Mikrookonomie. 7th ed. Munchen: Pearson Studium.
  • Wohe, Gunter and Ulrich Doring (2008). Einfuhrung in die Allgemeine Betriebswirtschaftslehre. 23rd ed. Munchen: Valen.

Der Zufall in den Wirtschaftswissenschaften

Das diesjährige Generalthema von Pro Scientia, einer österreichischen Studienförderungsinitiative, ist der Zufall. Im Zuge dessen habe ich kürzlich einen Vortrag zum Thema mit dem Titel „Der Zufall in den Wirtschaftswissenschaften. Zwei prominente Beispiele“ gehalten, dessen Kurzzusammenfassung ich hier teilen möchte.

I. Einleitung

Die Unterscheidung zwischen Zufälligkeit und hohem Grad an Komplexität ist keine einfache. Ist etwa der Ausgang eines Würfelwurfs Zufall? Könnte man, wüsste man über sämtliche Ausgangs- und Randbedingungen wie etwa der exakten Neigung der Handfläche oder der genauen Anfangsgeschwindigkeit des Würfels Bescheid, den Ausgang nicht sogar vorab berechnen? Nach einiger Diskussion stellt die Grazer Pro Scientia Gruppe fest: Würfeln ist wohl nicht wirklich zufällig, aber komplex. Ähnlich sieht es mit den wirr erscheinenden Preisbewegungen am Aktienmarkt aus. Preise, die aufgrund von Angebot und Nachfrage an der Börse gebildet werden, spiegeln immerhin doch den Unternehmenswert wider, der wohl stark mit dem mehr oder weniger gut messbaren Unternehmenserfolg zusammenhängt. Rein zufällig kann der Preis somit nicht sein. Es scheint auch tatsächlich langfristige Trends und Zyklen zu geben, die kleinen, oft minütlich auftretenden Schwankungen wirken aber doch eher wie das viel zitierte weiße Rauschen. Im Umgang mit solch volatilen Bewegungen, deren insbesondere kurzfristigen Veränderungen kaum vorhersehbar sind, spielt es jedoch keine so große Rolle, ob es sich beim untersuchten Phänomen tatsächlich oder nur scheinbar um Zufall handelt. Denn der Zufall kann auch in Verbindung mit bekannter Dynamik als Instrument genutzt werden, um komplexe Systeme handhabbar zu machen. Im Folgenden stelle ich zwei Beispiele vor, bei denen es um die Zufälligkeit von Aktienpreisen geht. Im ersten Beispiel folgt der Zufall als Konsequenz einer volkswirtschaftlichen Theorie. Im zweiten wird der Zufall als Modellierungswerkzeug verwendet, um konkrete Probleme der Preisbestimmung finanzmathematisch zu lösen.

II. Effizienzmarkthypothese

Eugene Fama entwickelte die sogenannte Effizienzmarkthypothese (siehe Fama, 1970), die proklamiert, dass im aktuellen Preis einer Aktie bereits sämtliche aktuell verfügbaren Informationen eingepreist sind und Preisänderungen nur aufgrund neuer Information stattfinden. Durch das Analysieren historischer Kursentwicklungen oder fundamentaler, preisrelevanter Daten kann keine zusätzliche Information erlangt werden, weshalb es selbst der klügsten und geschicktesten Marktteilnehmerin nicht gelingen kann, den Mark langfristig zu schlagen, also systematisch Gewinne zu erzielen. Märkte arbeiten in diesem Sinne effizient. Eine Konsequenz dieser Theorie ist, dass Aktienpreise einem zufälligen Muster – mathematisch formuliert einem stochastischen, trendlosen Prozess – folgen. Die beste Prognose für einen zukünftigen Preis ist demnach der aktuelle Kurswert. Spekulationsblasen haben in diesem Bild von Finanzmärkten keinen Platz – sie können sich rein technisch nicht entwickeln oder zumindest nicht lange halten.

Einer der schärfsten Kritiker dieser Theorie ist Robert Shiller, dessen Forschungsgebiet sich unter anderem auf Blasenbildung in Aktien- und Immobilienmärkten erstreckt (siehe beispielsweise Shiller, 2015). Groteskerweise erhielten Shiller und Fama (gemeinsam mit Lars Peter Hansen) 2013 den Nobelpreis für Wirtschaftswissenschaften für ihre empirische Analyse von Kapitalmarktpreisen. Shiller schreibt:

Im Grunde besagt die Effizienzmarkthypothese, dass unterschiedliche Fähigkeiten nicht zu unterschiedlicher Investmentperformance führen. Diese Theorie behauptet, dass die klügsten Menschen nicht in der Lage sind, hinsichtlich der Investmentperformance besser abzuschneiden als die am wenigsten intelligenten – und zwar deshalb nicht, weil ihr überlegenes Wissen bereits vollständig in die Aktienkurse eingepreist ist. Wenn wir die Prämisse der Markteffizienz akzeptieren, ist klug zu sein nicht nur kein Vorteil, sondern daraus folgt unmittelbar auch, dass es kein Nachteil ist, nicht so klug zu sein. […] Was die erwartete Anlagerendite angeht, könnte man genauso gut zufällig Aktien auswählen.

Shiller weißt auf einen signifikanten Unterschied bezüglich Vorhersagbarkeit hin, den die klassische Effizienzmarkthypothese ignoriert: Während es durchaus plausibel erscheint, kurzfristige Änderungen als zufällig aufzufassen, stellt er die langfristige Gültigkeit der Effizienzmarkthypothese in Frage. Psychologische und kulturelle Effekte wie auch Unterschiede in Wissen und Erfahrung können laut seinen Theorien sehr wohl zu länger andauernden Über- oder Unterbewertungen führen, die sich in Spekulationsblasen manifestieren. Der exakte Zeitpunkt einer Trendumkehr ist jedoch auch für ihn nicht vorhersehbar, was das Ausnutzen eines solchen Wissens schwer macht. Die Geschichte und nicht zuletzt die Dotcom-Blase um den Jahrtausendwechsel und die Immobilienblasen im Vorfeld der globalen Finanzkrise scheinen ihm Recht zu geben.

III. Black-Scholes Modell

Das Black-Scholes Modell ist ein finanzmathematisches Modell zur Bewertung, also zur Bepreisung, von Optionen. Eine Option ist ein Finanzderivat, dessen Wert von der Preisentwicklung eines zugrundeliegenden Wertpapiers abhängt. (Anstelle eines Wertpapieres können auch andere volatile Einheiten wie etwa Zinsen, Wechselkurse oder aber auch der Temperatur- oder Niederschlagsverlauf fungieren.) Eine Option verleiht der Käuferin das Recht, niemals aber die Pflicht, das jeweilige Wertpapier zu einem späteren Zeitpunkt zum beim Vertragsabschluss festgesetzten Preis – dem sogenannten Strikepreis – zu kaufen oder zu verkaufen. Sollte der Preis des Wertpapiers zum Ausübungszeitpunkt im Falle einer Kaufoption unten dem Strikepreis liegen, würde die Käuferin ihr Recht nicht ausüben, sondern das jeweilige Wertpapier schlicht zum aktuellen Kurswert erwerben. Damit ist eine Option quasi eine Versicherung gegenüber Preisanstiegen oder Preisverfall – je nachdem ob das Recht zu kaufen oder das Recht zu verkaufen erworben wird. Optionen sind somit ein äußerst sinnvolles Finanzprodukt, mit dem sich Personen gegenüber Risiken absichern können. Beispielsweise sichern sich Fluggesellschaften zu einem gewissen Grad gegen steigende Kerosinpreise oder Landwirte gegen Ernteausfälle aufgrund von zu geringem Niederschlag ab. So wie bei vielen Finanzprodukten können Optionen jedoch auch für Spekulation verwendet werden.

Da für die Käuferin der Option kein Risiko entsteht, sondern sie ausschließlich profitieren oder neutral aus dem Geschäft aussteigen kann, ist es rational notwendig, für die Option einen positiven Preis festzusetzen. Ansonsten hätte der Verkäufer keinerlei Anreiz, sich auf das Geschäft einzulassen – there is no free lunch. Allerdings: Wie setzt man einen Preis fest, dessen Wert von einer unbekannten – zufälligen – Größe abhängt? Generell werden Optionen ebenso wie das zugrundeliegende Wertpapier an der Börse gehandelt. Somit entsteht durch Angebot und Nachfrage auf natürliche Art und Weise ein Preis. Nachdem der Verkäufer jedoch Risiko von der Käuferin übernimmt, ist unter anderem aus Gründen der Risikoabschätzung ein fundamentaler Modellpreis hilfreich.

Das Black-Scholes Modell wurde von Fischer Black und Myron Scholes unter Mitarbeit von Robert Merton (siehe Black and Scholes, 1973; Merton, 1973) entwickelt. Scholes und Merton wurden dafür 1997 mit dem Nobelpreis der Wirtschaftswissenschaften ausgezeichnet. Black war zu diesem Zeitpunkt leider bereits verstorben. Das Modell stellt eine Formel bereit, welche – zumindest für einfache Optionen – einen Preis berechnen kann. Der wichtigste Bestandteil des Modells ist – der Effizienzmarkthypothese folgend – ein stochastischer Prozess, welcher die Preisbewegung des zugrundeliegenden Wertpapiers modelliert. Dabei ist es nicht das Ziel, exakte Preise des Wertpapiers zu berechnen, sondern vielmehr das Risiko – also mehr oder weniger die Schwankungsbreite – der möglichen Preisentwicklungen abzubilden. Dieser stochastische Prozess wird mittels stochastischer Differentialgleichung beschrieben. Ähnlich wie deterministische Differentialgleichungen, die beispielsweise in der Physik verwendet werden, um Wellenbewegungen zu beschreiben, wird dadurch die Dynamik des Wertpapiers erfasst. Zufallsvariablen erzeugen zusätzlich zu einem generellen Trend, zufällige Störungen, welche das typische Zickzack-Muster im Verlauf von Aktienpreisen erzeugen. Das Ausmaß dieser zufälligen Störungen – deren Varianz – kann etwa aus vergangenen Kursen geschätzt und dementsprechend im Modell eingebaut werden. Die Eigenschaften dieses stochastischen Prozesses werden schlussendlich verwendet, um mittels mathematisch sehr ästhetischer Formel einen fairen Preis der Option zu berechnen. Fair bedeutet dabei, dass im Erwartungswert weder Käuferin noch Verkäufer Gewinn oder Verlust machen.

Das Black-Scholes Modell ist ein relativ einfaches Modell, das auf einer Reihe von realitätsfernen Annahmen basiert und deshalb umfangreicher Kritik ausgesetzt ist. Es war jedoch das erste dieser Art und legte den Grundstein für eine Reihe von weitaus ausgefeilteren Modellen, die sich des Zufalls bedienen, um Risiko in Modellen abzubilden.

IV. Zusammenfassung

Die Effizienzmarkthypothese und das Black-Scholes Modell zeigen auf beispielhafte Weise, welche Rolle der Zufall im Verständnis der Wirtschaftswissenschaften spielt. Ob es sich nun bei Preisbewegungen am Aktienmarkt tatsächlich um Zufall oder doch nur um eine hochgradig komplexe Angelegenheit handelt, ist wohl weiterhin unklar. Allerdings zeigt sich, dass stochastische Modellierung ein mächtiges Werkzeug darstellt, um beobachtete Zufälligkeit / Komplexität in den Griff zu bekommen beziehungsweise in Theorien einzubauen.

V. Literatur

Black, F. and Scholes, M. (1973). The pricing of options and corporate liabilities. Journal of Political Economy, 81(3):637–54.

Fama, E. F. (1970). Efficient capital markets: A review of theory and empirical work. The Journal of Finance, 25(2):383–417.

Merton, R. (1973). Theory of rational option pricing. Bell Journal of Economics, 4(1):141–183.

Shiller, R. J. (2015). Irrational Exuberance. Princeton University Press, Princeton, NJ, 3rd edition.

The Myths and Realities of the European Migration Challenge

Recently the Graz Economics Club invited Martin Kahanec an associate professor from Central European University Budapest to give a talk on migration in Europe from a labour market perspective. On his website Martin Kahanec writes:

There is no price tag attached to my hand stretched out to refugees, people threatened by wars, and violent regimes. The humanitarian argument prevails over any cost-benefit analysis. But as a labor economist, I firmly believe it is my obligation to help us better understand the labor market impacts of immigration.

Following this motivation he starts his talk with quoting several common fears on immigration: Migrants are low skilled, take our jobs, lower wages, abuse the welfare state, shop for welfare and increase crime rates. As a scientist he does not want to blindly believe such myths but rather tries to test these hypotheses to find out whether there is any empirical evidence supporting or rejecting them. Put differently, are such kind of fears justified?

Comparing skills of immigrants in Europe and natives, he finds no substantial differences. Migrants, however, tend to fill existing labor and skill shortages and they do so more flexibly than natives. He cites several studies which empirically reject the hypothesis of increasing unemployment due to migration. In fact, there is even some evidence for job creation triggered by migration in the long run. For instance, a nurse migrating to Austria to take care for a disabled person might not take away a job but rather create new ones: The home caring she is doing might have previously been carried out by a family member which consequently was not able to fully participate in the labour market. By employing a nurse from abroad the nursing job is created and the family member may return to his or her own job. When it comes to fears about migrants abusing our welfare systems, Martin Kahanec actually comes to a very different conclusion: Migrants seem not to abuse welfare benefits but rather suffer from a lack of access which should possibly be changed as a matter of fairness. He shows that post-enlargment migration had positive effects on GDP, GDP per capita and employment rates. Given Europe’s aging population we should not fear migrants but rather actively attract them to our countries. He concludes by stating

The current migration crisis in Europe offers a potential for a triple win:

  • Provide humanitarian help to refugees
  • Revamp our migration, asylum, and integration policies
  • Benefit from the new hands and brains that can boost our labor markets

Otherwise a triple loss looms.

Das Schulbuch-Debakel und das Imageproblem der Ökonomik

Timon Scheuer lenkt meine Aufmerksamkeit auf einen Artikel auf NZZ.at, den wir beide zunächst für einen Aprilscherz hielten. Doch nun ist es traurige Gewissheit: Das Niveau des Wirtschaftskundeunterrichts an Österreichs Schulen ist wirklich unter jeder Sau.

Das belastende Beweismaterial: ein neues Wirtschaftskunde-Schulbuch, das völlig zu Recht den Spott und Hohn der NZZ-Redakteure auf sich gezogen hat. Österreichs Ökonomieprofessoren (darunter einige Grazer) haben auch schon mit einem offenen Brief an das Bildungsministerium reagiert. Um das gesamte Ausmaß der Katastrophe einschätzen zu können, sollte man auch den Text des Schulbuchs lesen, den der verantwortliche Veritas-Verlag dankenswerter Weise online zur Verfügung gestellt hat.

Tiefpunkt des Lehrbuchs und Auslöser des Skandals ist eine Grafik auf Seite 89, die verschiedene ökonomische Denkschulen abbildet. Links außen steht Keynes als Begründer des Keynesianismus, ihm gegenüber Hayek als Vertreter des Neoliberalismus, ein gewisser Friedmann, der als Begründer des Monetarismus vorgestellt wird, an der Spitze natürlich Marx (wer sonst?) und – jetzt kommt’s – mitten drin Christian Felber als Begründer der Gemeinwohlökonomie. Da staunt der Laie und der Fachmann wundert sich.

Laut eigenem Lebenslauf hat Felber nach seinem Spanischstudium als „zeitgenössischer Tänzer und Performer“ gearbeitet bevor er Attac-Österreich mitgegründet und das Buch „Gemeinwohl-Ökonomie“ geschrieben hat. Klingt spannend. Was ist das? „Gemeinwohl-Ökonomie bezeichnet ein Wirtschaftssystem, das auf gemeinwohlfördernden Werten aufgebaut ist. Die Gemeinwohl-Ökonomie ist ein Veränderungshebel auf wirtschaftlicher, politischer und gesellschaftlicher Ebene – eine Brücke von Altem zu Neuem.“ Wenn Sie jetzt sagen, das kann doch aber nicht alles gewesen sein, können Sie sich hier vertiefen. Ich hatte bis heute nicht den Nerv mich durch das Dickicht aus abgedroschenen Phrasen und Gemein(wohl-)plätzen hindurch zu quälen, das vom intellektuellen Anspruch her irgendwo zwischen dem Ikea-Katalog und dem „Wachturm“ rangiert.

Genug der Häme. Es ist immer leicht über etwas herzuziehen, das man nur vom Hörensagen kennt; und immerhin hat Felber eine Utopie und stellt sie zur öffentlichen Diskussion. Trotzdem bleibt die Frage wie die Utopien eines politischen Aktivisten als „alternative Wirtschaftstheorie“ in ein AHS-Schulbuch gelangt.

Die Antwort ist einfach: Die Autoren des Schulbuchs, genauso wie die breite Öffentlichkeit, sehen Wirtschaftstheorie immer nur im Hinblick auf ihre politischen Implikationen. Es gibt keine Trennung zwischen positiver und normativer Wirtschaftswissenschaft. Keynesianismus ist die Theorie, dass der Staat die Konjunkturzyklen stabilisieren soll, Marxismus die Theorie, dass der Staat die Produktionsmittel besitzen soll, Neoliberalismus die Theorie, dass der Staat so wenig wie möglich tun soll. Volkswirtschaftslehre als ein buntes Nebeneinander von wirtschaftspolitischen Ideologien, wo sich jeder nach seinem Geschmack was Passendes aussuchen kann. Das ist der Eindruck, den das Schulbuch vermittelt.

Woher kommt das?

Ich glaube das kommt zu einem großen Teil daher, wie sich die Volkswirtschaftslehre lange Zeit nach außen präsentiert hat und es teilweise immer noch tut. Viel zu oft macht die VWL einen zerstrittenen, politisch gefärbten und unwissenschaftlichen Eindruck. Manchmal wird dieses Image von den Medien bewusst geschürt, indem sie selbsternannte Starökonomen zu führenden Vertretern der Wissenschaft hochstilisiert (man denke nur an Heiner Flassbeck oder Stephan Schulmeister). Doch oft sind wir einfach selber schuld, z.B. wenn Gene Fama und Robert Shiller gleichzeitig den Nobelpreis bekommen. Da kann ja nur Verwirrung rauskommen. Auch ist es nicht unbedingt hilfreich, dass viele große Ökonomen der Vergangenheit im weitesten Sinne politische Aktivisten waren: Adam Smith für den klassischen Liberalismus, Karl Marx für den Sozialismus, Milton Friedman für den Neoliberalismus, Joseph Stiglitz für die soziale Marktwirtschaft usw.

Das öffentliche Image von Ökonomen als politisierende Streithähne steht für mich jedenfalls in krassem Widerspruch zur Realität der VWL im 21. Jahrhundert. Lesen Sie ein gut verständliches Fachjournal wie das Journal of Economic Perspectives oder den Wissenschaftsteil des Economist oder den Graz Economics Blog und Sie werden sehen, dass Ökonomik heute eine stark empirisch ausgerichtete, thematisch breite und weitgehend ideologiefreie Wissenschaft ist. Die typische Fachpublikation sieht so aus: Hier ist meine Theorie, hier sind meine Daten, hier das Ergebnis des Tests der Theorie.

Das war nicht immer so. Bis in die 70er-Jahre war die VWL sehr theorielastig und ökonometrische Methoden noch relativ unterentwickelt. Der relative Preis von empirischer Forschung war hoch: Daten waren nur schwer zugänglich und Regressionsrechnungen mühsam. Computer und Internet haben die Angebotskurve von empirischer Ökonomik gehörig nach außen verschoben und damit die Disziplin grundlegend gewandelt.

Ihr Image hat diesen Wandel nur leider nicht mitvollzogen. Und so kommt es, dass ein österreichisches Schulbuch Keynesianismus und Monetarismus immer noch als widerstreitende Theorien darstellt, obwohl Christopher Sims und seine Vektor-Autoregressionen diesen Streit vor Jahrzehnten beendet haben; dass Hayek und Marx und als Vertreter „alternativer Theorien“ vorgestellt werden, die für die moderne Volkswirtschaft ungefähr so viel Relevanz haben wie Aristoteles für die moderne Physik oder Galenus für die moderne Medizin.

Was sollte nun ein Schulbuch über Volkswirtschaftslehre enthalten?

Gute Frage. Meiner Meinung nach sollte ein Schulbuch drei Dinge tun: Einen Überblick über den Gegenstandsbereich geben (Womit beschäftigen sich Ökonomen?), in grundlegende Konzepte und Methoden einführen (Was heißt Wirtschaftswachstum?) und vor allem Neugierde am Fach wecken. Für letzteres eignen sich Experimente der Verhaltensökonomik besonders gut. Beispielsweise könnte das Schulbuch eine Anleitung für das Ultimatum-Spiel enthalten, das die Schüler durchführen, auswerten und diskutieren könnten. Das Prinzip des komparativen Vorteils, die Preisbildung auf einem Wettbewerbsmarkt oder das Gefangenendilemma sind für Gymnasiasten nicht schwer zu verstehen, vielseitig anwendbar und unglaublich wertvoll.

Ein intelligenter Schüler, der diese drei Konzepte verstanden hat, wird schnell selbst erkennen, warum die Utopien des Herrn Felber zum Scheitern verurteilt sind.

Collected Links 03/2016: New Principles

If you are in Graz next week: Don’t miss the Economics Club’s guest lecture “The Myths and Realities of the European Migration Challenge” by Prof. Martin Kahanec from Central European University in Budapest. Here is the Facebook event page with more info.

We usually measure economic activity by multiplying the quantity of each final good with its price and summing over all final goods. The development of new technologies during the past few years has replaced CDs with online downloads and streaming services, telephone calls with Skype, books with ebooks. Many of these goods are delivered at zero (or close to zero) prices and financed through other means such as advertising. Hence GDP probably underestimates the volume of economic activity. What should we do about it? Sir Charles Bean has dealt with this issue and now produced a short summary here.

“Are we teaching the wrong principles of economics in the introductory course?”, asks David Collander. Greg Mankiw, not surprisingly, answers in the negative.

For those who don’t have a clue what I’m talking about, here’s Yoram Bauman’s classic translation of Mankiw’s principles.

If you believe, as I have long believed, that the criminalization of cannabis probably causes more harm than good, this paper may change your mind: It exploits the specific cannabis policy of the city of Maastricht which grants legal access based on individuals’ nationality. They find that “academic performance of students who are no longer legally permitted to buy cannabis increases substantially.”

Women, I am told, are under-represented in economics. As a partial remedy, I shall henceforth include a link to a female economist in every edition of the collected links. This month: Who was Mabel Frances Timlin?

Not entirely unrelated: The social and economic determinants of violence against women in Sub-Saharan Africa.

A new school in macroeconomics is on the rise. They are called Neo-Fisherians because they place strong emphasis on the Fisher equation, which says that the real interest rate equals the nominal rate minus expected inflation. The equation itself is not controversial – it’s part of every sensible macro model. What is controversial is the Neo-Fisherians’ claim that the Fisher equation implies that raising nominal interest rates increases inflation – quite the opposite of conventional wisdom. John Cochrane, one of the most prominent Neo-Fisherians, has come up with a simple model plus a good intuitive explanation of that point of view.

Helicopter money sounds scary, but is just normal textbook monetary policy, as Simon Wren-Lewis points out.

New Graz Economics Papers:

We all know Arrow’s theorem, right? Few of us, I guess, know Alfred Tarski. What the one has to do with the other is explained by Daniel Eckert and Frederik Herzberg in their new paper.

Providing public goods is hard. Even harder is providing public goods in a welfare maximizing way. Still harder (for me, at least) is reading this new paper about welfare-maximizing ways to deal with the binary public goods provision problem (let’s build the bridge/ let’s not).

Can one make sense of recent global imbalances in overlapping generations models? Karl Farmer and Bogdan Mihaiescu are trying.