Wie sehr profitiert Österreich vom Außenhandel?

Paul Krugman zeigt uns wie man Handelsgewinne mit einer einfachen Formel berechnen kann und wendet sie auf den “Brexit” an. Seiner Berechnung zufolge würde ein harter Brexit ca. 2% vom britischen BIP kosten. 

Die Formel kommt aus einem mittlerweile zum Standard gewordenen Modell bilateraler Handelsströme von Johnathan Eaton und Samuel Kortum. Dieses Modell ist im Prinzip eine  Verallgemeinerung des „Ricardianischen Modells“, das wir alle im ersten Jahr VWL-Studium gelernt haben (wir erinnern uns: England tauscht Tuch gegen Wein aus Portugal,…), nur eben mit unendlich vielen Gütern und beliebig vielen Ländern. Die Formel setzt das Pro-Kopf-Realeinkommen einer Volkswirtschaft w in Beziehung zum Inlandsanteil seiner Gesamtausgaben („home share“) h:

w = a*h^(-b),

wobei die Konstante a die allgemeine Arbeitsproduktivität der Landes misst (je größer a, desto größer der „absolute Vorteil“ eines Landes) und der Parameter b die Streuung der Arbeitsproduktivität über die Länder hinweg bestimmt (je größer b desto stärker ausgeprägt sind die „komparativen Vorteile“ jedes Landes). Hier klicken, wer eine Herleitung sehen will. Eaton und Kortum und Krugman verwenden b=0,25 in ihren Berechnungen. Die Konstante a spielt für unsere Zwecke keine wesentlich Rolle.

Wie berechnet man den Inlandsanteil? Dazu müssen wir uns an die VGR-Identitäten erinnern. Das Bruttonationaleinkommen Y ist bekanntlich gleich den Gesamtausgaben eines Landes (Summe aus privatem und staatlichen Konsum und Investitionen) abzüglich der Netto-Exporte (Exporte X minus Importe M). Die Ausgaben auf inländische Güter erhält man indem man von den Gesamtausgaben die Importe abzieht oder wenn man vom Bruttonationaleinkommen die Brutto-Exporte abzieht. Das heißt wir können den Inlandsanteil wie folgt berechnen:

h = (Y-X)/(Y-X+M).

In einer geschlossenen Volkswirtschaft ist der Inlandsanteil gleich eins. Daraus folgt, dass das Pro-Kopf-Realeinkommen einer autarken Volkswirtschaft nur durch die allgemeinen Arbeitsproduktivität a bestimmt ist. Je offener die Volkswirtschaft, desto geringer der Inlandsanteil, desto größer sind die Handelsgewinne.

Nachstehende Grafik zeigt die Resultate meiner Berechnungen für die Österreich von 1995 bis 2017 (Daten von Eurostat). Warum 1995? Weil das das Jahr war, in dem Österreich zur EU beigetreten ist. Wie man sieht entfielen bei EU-Beitritt noch fast 2/3 der österreichischen Gesamtausgaben auf heimische Güter. Heute liegt der Anteil bei unter 50%.

Bildschirmfoto 2018-12-06 um 17.51.28

Laut unserer Formel stiegen dementsprechend die Handelsgewinne seit dem EU-Beitritt von ca. 11% auf über 20% des Pro-Kopf-Realeinkommens. Sprich: würde Österreich wieder zur Handelspolitik von vor 1995 zurückkehren, wären wir um rund 9% ärmer. Würde Österreich alle Handelsbeziehungen kappen und von nun an in perfekter Isolation leben, müssten wir auf 1/5 unseres Einkommens verzichten. Oder in absoluten Zahlen ausgedrückt: Jeder Österreicher ist im Schnitt um 8.400 Euro pro Jahr reicher durch den Außenhandel. Eine Rückkehr zu Vor-EU-Handelsverhältnissen würde jeden Österreicher ca. 3.800 Euro pro Jahr kosten.

Wie immer bei diesen Rechenspielchen sind die konkreten Zahlen mit viel Vorsicht zu genießen. Sie hängen stark von vereinfachenden Annahmen ab und bieten daher nur einen ersten groben Anhaltspunkt. Wie dem auch sei, ich mag solche Pi-mal-Daumen-Rechnungen einfach!

Advertisements

Why our models are models of models and what that means for the current debate about the future of macroeconomics

In the latest issue of the “Oxford Review of Economic Policy”, Simon Wren-Lewis has written an interesting contribution concerning the shortcomings of contemporary macroeconomic models. In his article, he argues that the “microfoundations hegemony” is among the core problems that hold back progress. I want to add an argument to this debate which shall support the beginning collapse of this dogma.

Historically, the idea of basing macroeconomic models on explicit microfoundations initiated in the 1970s leading to the demise of old-style Keynesian models which relied heavily on ad-hoc restrictions such as a constant aggregate savings rate. With the famous Lucas-critique declaring that ad-hoc restrictions cannot be considered invariant to changes in economic policy, a methodological standard came to dominance in the profession which demands explicit microfoundations as a pre-condition for doing proper macroeconomic modelling. The subsequent points are central to this doctrine:

I. Explicit microfoundations are needed to make models “robust” to the Lucas-critique.

II. Explicit microfoundations provide the basis for “checking” the internal consistency of the underlying thought.

III. As a pre-condition to be certain on i) and ii), the microfoundations have to be expressed using the precise language of mathematics.

Although this all seems quite convincing at first sight, the whole idea nevertheless rests on one particularly troublesome misconception of what (macro?)economic models usually represent. In the standard view, we see them as simplified representations of reality – as approximations to a complex world. “Think of it like a map! If you design a map of the Austrian highway system, you leave out irrelevant aspects like the trees guarding the highway.” – Right? Ok…, so our models are approximations! Approximations of what? Of the real world! Which looks how? Well, of course we cannot know everything in perfect detail – the reality is rather complex, but…but you know how to design proper approximations to it? How do you make proper approximations to something you do not really know because it is too complex?

In my view, the majority of (macro)economic models are indeed best seen as approximations, but as approximations of what somebody thinks about the real world rather than of the real world itself. They are formal models of the fuzzy “models” that we have in our brain – models of models, approximations of simplifications. To see this, consider the example below which you may easily find in a standard macro-paper.

“For sake of simplicity, suppose that an infinity of identical firms produce according to Y=f(K,L) with Y giving output, K denoting the capital stock and L the amount of labour.” How do we proceed on this if we read that?

a. Translate the equation Y=f(K,L) into words: “Ok, so…production uses capital and labour as inputs.”

b. Guess what the author might want to say about the real world:

  1. “So there is an infinity of firms in the model. Does he/she mean that there is an infinity of firms in the real world? – I guess not. So how many firms does he/she mean – 1000, 1 000 000?
  2. “Does he/she mean that all firms are the same in the real world? – I hope not!”
  3. Ah…“for sake of simplicity” – so the assumption was taken although he/she anyway means something else – if so…what?! Hm…
  4. “Maybe he/she means that analyzing market power of firms is not necessary for the respective purpose of the model?” – Sounds better. Or maybe, he/she means that market power is generally negligible…– whatever. I just stick to the latter interpretation.

Note that this is a pretty simplified example. In macro models you typically have various actors and feedback effects between consumers, producers, the central bank etc. If you let 10 people conduct the upper steps for such models you will usually get 10 different interpretations. To overcome this, you may introduce some form of heterogeneity in the model, try to get a slightly more realistic expression of competition and so on. You will nevertheless end up with mathematical expressions that do not correspond to what you actually want to say about people´s behavior and their respective interactions. In other fields, the difference between the formal model and the model you have in mind may be small, in macro, the gap is usually rather pronounced.

What does that imply now for the future of macroeconomics? I assume here that one is willing to follow some form of McCloskey´s view of economists as “persuaders”, i.e. we are interested in changing the fuzzy “models” in our brain or in other peoples´ brainswhile the formal ones are only tools for achieving this. It follows:

i) Explicit microfoundations may help to address the Lucas-critique, but they cannot make it immune since other people may simply not interpret the parameters of the formal microfoundations as structural. More importantly, a model that is not explicitly microfounded may be reasonably interpreted by people to be robust by adding an informal story. Both proceedings end up with an informal judgement. Explicit microfoundations are therefore neither necessary nor sufficient to address the Lucas-critique and by using them we do not overcome the final step of informal, fuzzy, subjective judgements.

ii) Since the formal model on paper and the fuzzy model in our brain are distinct, the internal consistency of the formal structure is neither necessary nor sufficient for the consistency of the underlying thought.

iii) Mathematical models are not an intrinsically precise way of communicating economic ideas. Ordinary speech may promote clarity since it describes the fuzzy models in our brains directly rather than approximating them with the often pretty rough formal elements available.

With all this, I neither want to say that we should completely depart from explicit microfoundations nor that we should abandon mathematical representations. I think both are powerful tools for bringing macroeconomics forward. There is just no reason to apply them dogmatically without thinking about whether doing so makes sense for the purpose at hand and it is certainly unjustified to impose this standard on others when judging their contributions, at least if one´s arguments in favor of this standard are based on I)-III). Finally, given that the gap between the formal and the fuzzy model is often pretty sizeable, we cannot stick to simply throwing models at each other. They can be great tools for thinking but in the end, somebody will have to give the actual argument about the source of e.g. the recent financial crisis. This necessitates using and describing the relevant parts of his/her fuzzy model that would have optimally advanced using the formal ones. And: Doing so requires fuzzy, ordinary language, not math!

 

Monopoly power and corporate taxes

There has been a fair amount of debate about corporate taxes in the econ blogosphere. The debate was framed early on by a cute little exercise on Greg Mankiw’s blog which was supposed to  show that, in a small-open economy with perfect competition, a 1 dollar cut in capital taxes raises wage income by more than 1 dollar.

Paul Krugman and others have rightly pointed out that Mankiw’s toy example, its cuteness notwithstanding, provides little to no insight into the real policy debate now going on in the US, because (i) the US is not a small open economy and (ii) there is evidence that much of corporate profits are monopoly rents rather than returns to capital, which casts doubt on the relevance of perfect competition models.

Indeed, there’s a new paper documenting that mark-ups (difference between price and marginal costs) have increased in practically every industry in recent decades. The paper has not yet gone through peer review, so it’s probably wise not to jump to conclusions from it. Nevertheless, it’s useful to think about potential implications.

One of the basic results in public finance is that taxes on rents produce no deadweight loss. So if corporate profits are just monopoly rents, we can tax them away at zero social cost. Right?

Wrong.

Continue reading

Re: Bitte weitersagen: Modellannahmen sind keine Werturteile!

In den letzten beiden Beiträgen wurde hitzigst im weitesten Sinne über Modellannahmen diskutiert. Beim Lesen sind mir einige Dinge in den Sinn gekommen, die ich hier gerne als Kommentare bzw. Denkanstöße beitragen möchte.

  1. Max behauptet, Modellannahmen wären strategische Vereinfachungen, die einem helfen, die wesentlichen Aspekte der Realität von den unwesentlichen zu trennen. Das mag in der Theorie stimmen, aber tut es das auch in der Praxis? Sind Modellannahmen nicht allzu oft von Mach- bzw. Rechenbarkeit getrieben? Ist euch die Aussage „Wir machen das so und so, weil nur dann eine analytische Lösung existiert.“ noch nie untergekommen? In einer perfekten Welt würde Modellierung wohl so funktionieren, wie Max es beschreibt. Ich glaube aber nicht (Sic! Ein Glaubenssatz!), dass wir in solch einer idealen Welt leben. Darüber hinaus denke ich auch nicht, dass es überhaupt durchführbar ist, Modellierung ausschließlich durch strategische und objektiv einwandfreie Überlegung zu bewerkstelligen. Und hier kommt wohl Wolfgangs Zugangsweise ins Spiel: „Die Entscheidung, welche nötigen und vereinfachenden Annahmen getroffen werden, liegt natürlich beim Modellbauer und sind in einem starken Ausmaß Werturteile.” Ich würde das „im starken Ausmaß“ nicht unterschrieben, aber dieser Zugang entspricht im Wesentlichen sicherlich oftmals der Realität. Wer hat also recht? Irgendwie doch beide, Max und Wolfgang. Während Max eine normative Herangehensweise wählt („Wie sollte Modellierung aussehen.“), geht Wolfgang den deskriptiven Weg („Wie sieht Modellierung tatsächlich aus.“). Die beiden behandeln also unterschiedliche Probleme, weswegen diese hitzige Diskussion darüber zumindest für mich nicht ganz nachvollziehbar ist.
  1. Katharina Maria unterschiedet zwei Zwecke von Modellen: „Ich glaube, du musst zwischen dem Modell selbst und, wenn dies der Zweck des Modelles ist, seiner Funktion einen Teil der Realität abzubilden unterscheiden. Im letzten Fall, kannst du meiner Meinung nach nie wissenschaftlich feststellen, ob deine Annahmen wirklich korrekt sind bzw. ob du die richtigen Annahmen getroffen hast, denn auch Modelle mit falschen Annahmen generieren richtige Forecasts und vice versa. In ersterem Fall würde ich das Modell mit einem logischen Argument vergleichen und das kann deduktiv korrekt sein, wie ein mathematischer Beweis eben einfach logisch richtig ist, … das hat dann mit Werturteilen wirklich wenig zu tun.“ Dem stimme ich grundsätzlich zu. Ein mathematisches Modell ist im Grunde ein Theorem, das aus den Annahmen (welche zuvor sauber definiert werden müssen) durch logische Schlussfolgerung Eigenschaften ableitet. Diese Eigenschaften in Frage zu stellen, ist wenig sinnvoll, da sie direkte Implikationen der Annahmen sind. Sobald ein Modell jedoch die schöne, mathematische Welt verlässt und dafür miss-/ge-braucht wird, um die tatsächliche Welt zu beschreiben, ist es mit der Exaktheit auch schon wieder vorbei. Denn die Richtigkeit der Eigenschaften und Implikationen innerhalb des Modells sagen nichts über die Richtigkeit außerhalb des Modells aus – ob ein Modell in der Realität also brauchbar ist, ist eine gänzlich anders geartete Frage. Zwei Probleme sehe ich im obigen Statement dennoch: Zunächst halte ich es für problematisch, die Frage nach der Güte eines Modells mit der Produktion richtiger „Forecasts“ zu beantworten. Ein Modell kann durchaus die Vergangenheit und vielleicht auch die Gegenwart gut beschrieben, aber für die Zukunft komplett versagen. Die Welt, in der wir leben, ist glücklicherweise komplex genug, um uns ständig neu zu überraschen. Möchte man Mechanismen verstehen, ist es wichtig die Dynamiken richtig abzubilden und nicht unbedingt akkurate zukünftige Vorhersagen zu treffen. Die Vorhersagekraft eines Modells spielt meines Erachtens nach nur eine untergeordnete Rolle in der Validierung desselben. (Selbstverständlich hängt dies natürlich auch vom letztlichen Zweck eines Modells ab.) Andererseits möchte ich betonen, dass die Unterscheidung von Modell und Modellannahme – sit venia verbo – sinnlos ist. Die Annahmen sind grundlegender Teil eines jeden Modells und können niemals davon losgelöst betrachtet werden.
  1. Max vertritt die These – zumindest habe ich das so aufgefasst – dass ökonomisches Arbeiten darin besteht, ein theoretisches Modell zu formulieren und daraufhin die Gültigkeit des proklamierten Mechanismus anhand von Daten zu bestätigen oder zu falsifizieren. Vielmehr noch meint er, dass die Gültigkeit von Annahmen durch das Füttern des Modells mit empirischen Daten und einem „guten“ (also im Rahmen der Erwartungen liegenden) Ergebnis bestätigt werden kann. Das ist zwar sicherlich eine recht praktikable Herangehensweise (wenn nicht sogar eine der wenigen tatsächlich durchführbaren), aber dennoch muss festgehalten werden, dass Daten nie und nimmer ein Modell bestätigen können. Das Beste, was erwartet werden kann, ist, dass Daten ein Modell nicht grundsätzlich widerlegen. Das heißt, dass die Aussage „Dieses Modell trifft nicht zu.“ nicht getätigt werden kann. Die Aussage „Dieses Modell ist wahr.“ ist damit aber noch lange nicht bestätigt. Zugegebenerweise legt natürlich ein Nicht-Widerlegen durch sehr viele unterschiedliche aber gleichgeartete Datensätze die Vermutung nahe, dass das Modell, welches – wie ich nochmals betonen möchte – niemals ohne seine zugrundeliegenden Annahmen gedacht werden darf, wohl nicht ganz so falsch sein wird. Aber das ist natürlich kein Beweis!
  1. Der Ton der Unterhaltung: Ich finde Moralisieren öde, weil es zum Einen eine Diskussion erstickt und zum Anderen kaum auf Interesse der Leserschaft stößt. Ich denke, wir sind alle alt genug, um selbst entscheiden zu können, welchen Ton wir in welcher Situation als angemessen erachten und es steht uns allen frei, diesen auch zu verwenden.