Politik am Prüfstand: Frei- oder Kuhhandel?

Ein Beschluss darf in der Vorjahresbilanz der großen Heuler mit ökonomischem Beigeschmack nicht fehlen: im Frühjahr wurden die noch offenen Vertragsbestandteile des berühmten CETA beschlossen.

Um was geht’s?

CETA steht für ‚Comprehensive Economic and Trade Agreement‘ – zu Deutsch: umfassendes Wirtschafts- und Handelsabkommen. Wer es bloß als Handelsabkommen bezeichnet, verschweigt also die Hälfte. Vor allem, da genau jener Teil des Abkommens, der sich den klassischen Belangen des Handels widmet, bereits längst in Kraft getreten war. Dies liegt daran, dass die Handelspolitik alleinige Kompetenz der Europäischen Union ist. Für das Inkrafttreten des entsprechenden Teiles genügte deshalb der längst gefällte Beschluss im Europäischen Parlament. Den nationalen Parlamenten oblag es nur noch, über jene Teile des Abkommens zu entscheiden, die über die Handelspolitik hinaus gingen und somit auch in Bereiche nationaler Zuständigkeit fielen.

In diesen wirtschaftspolitischen Teilen wird sich zur Liberalisierung bekannt, also einer Marktöffnung aller nicht vorab explizit ausgenommenen Sektoren und Leistungen. Hierbei schreibt Annex I das tatsächlich bestehende Liberalisierungsniveau als Minimum fest. Dieses Minimum wird mit jeder hinzukommenden Liberalisierungsmaßnahme neu gesetzt, also schrittweise erhöht, was der Rücknahme von bisherigen und zukünftigen Liberalisierungsmaßnahmen entgegenwirkt. Von dieser Regel ausgenommen sind nur jene Sektoren und Leistungen, die in Annex II explizit angeführt werden. Es handelt sich also um das sogenannte Negativlistenprinzip: nur was explizit vorab als Ausnahme deklariert wurde, gilt als solche, alles andere wird vom Quasi-Gebot der Liberalisierung erfasst.

Hinzu kommen weitere Bekenntnisse wie jenes, Regulierungsunterschiede zu vermeiden und Standards anzugleichen oder zumindest als gleichwertig anzuerkennen. Während der Vertragstext explizit die fallspezifische Verweigerung eines dieser angestrebten Schritte erlaubt, könnte eine wiederholte Verweigerung als Verstoß gegen das völkerrechtlich geltende Frustrationsverbot interpretiert werden.

Noch heikler wird die Sache beim ebenfalls im Abkommen festgeschriebenen Investitionsschutz. Dieser soll vor entschädigungsloser Enteignung oder Diskriminierung schützen – also vor einem Tatbestand, der in entwickelten Rechtssystemen wie Kanada oder der Europäischen Union ohnehin verboten ist. Der Investitionsschutz geht allerdings über den der Allgemeinheit zukommenden Schutz des Eigentums hinaus und erzeugt somit eine Diskriminierung, wie er sie eigentlich vermeiden sollte. Auf Basis dieses besonderen Schutzes finden private Investoren die Möglichkeit, etwaige entgangene Gewinne vom Staat einzuklagen, wenn dieser implizit Schuld daran trägt – zum Beispiel durch neue Umweltauflagen oder Steuern.

Was hat das mit der Volkswirtschaftslehre zu tun?

Entsprechende Streitfälle werden zukünftig vor einem eigenen Investitionsgerichtshof geführt. In wie weit dessen Zusammensetzung den Vorwurf der Paralleljustiz entkräftigt, den sich bis dato zuständige private Schiedsgerichte eingehandelt hatten, ist wohl juristisch zu beurteilen. Die mit den Klagen verbundenen Risiken sind aber vor allem wirtschaftspolitischer Natur. Bei der Abwägung staatlicher Interventionen aufgrund neuer wissenschaftlicher Erkenntnisse oder unvorhergesehener Entwicklungen sind aufgrund des Abkommens nun auch potenzielle Kosten durch Klagen privater Investorinnen zu berücksichtigen.

Da selbst öffentliche Leistungen zur Daseinsvorsorge unabhängig ihres ökonomischen Charakters als nicht-tarifäre Handelshemmnisse geführt werden, lässt sich der Vorwurf einer ideologisch motivierten wirtschaftspolitischen Agenda im Abkommen nicht gänzlich vom Tisch wischen. Die Entscheidung über die Ausgestaltung eines Marktes bzw. seiner Regulierung sollte evidenzbasiert und situationsspezifisch gefällt werden, anhand ökonomischer Kriterien wie der Rivalität, der Ausschließbarkeit oder den externen Effekten eines Gutes. Die trockene Legistik im Vertragstext geht darauf ebenso wenig ein, wie auf die durch Technologie und Umwelt hervorgerufene Dynamik der wirtschaftlichen Entwicklung. Im Gegenteil, aufgrund der zuvor erwähnten Klauseln wird Liberalisierung teilweise zur Einbahnstraße erkoren, da die Reaktionsmöglichkeiten auf missglückte Privatisierungen beschränkt sind.

Was bleibt der Volkswirtschaft?

Klar, davon alleine wird die Welt nicht untergehen, und auch nicht die Volkswirtschaft. Diese hat durch den schon länger in Kraft getretene Teil des Abkommens zum Handel gerade erst ein – aufgrund der kleinen Größe Kanadas – überschaubares Wachstum erfahren. Gegen die längst von Statten gegangene Abschaffung tarifärer Handelshemmnisse wird sich wohl kaum ein Ökonom oder eine Politikerin verwehren. In wie weit durch die zusätzlichen Teile des Abkommens nun auch die Investitionstätigkeit zunimmt, bleibt abzuwarten.

Die Entscheidung über diese zusätzlichen Teile ist und bleibt daher wie vieles in der Wirtschaft und Wirtschaftspolitik eine Entscheidung unter Unsicherheit. Kritiker, Skeptiker und Pessimistinnen mögen in CETA gar einen Knebelvertrag sehen und potenzielle Klagen wie ein Damoklesschwert über jeder wirtschaftspolitischen Entscheidungen der Zukunft schweben sehen. Streng Marktgläubige und bedingungslose Optimistinnen hingegen werden in CETA bloß den gängigen Usus liberaler Spielregeln zur Absicherung gegen willkürliche politische Entscheidungen sehen. Für beide Sichtweisen finden sich Argumente und diese untermauernde Einzelfälle. Es gibt sie die Milliardenklagen von Konzernen, wie sie etwa Deutschland rund um den Atomausstieg kennengelernt hat. Doch entschieden selbst die bisher zuständigen privaten Schiedsgerichte nicht ständig und leichtfertig für die klagenden Konzerne. Und so wie die Notwendigkeit eines Investitionsschutzes bei entwickelten Rechtssystemen wie Kanada und der Europäischen Union in Frage gestellt werden kann, sind bei wirtschaftlich und politisch ähnlich entwickelten Volkswirtschaften wie Kanada und Europa auch Horrorszenarien von fallenden Standards in Arbeits-, Umwelt- oder Konsumentenschutz unwahrscheinlich.

Ein finales Urteil über die Notwendigkeit und den gesamtgesellschaftlichen Nutzen eines so umfassenden Abkommens basiert also zu einen großen Teil auf etwas, das der ökonomischen Disziplin nicht immer sonderlich gut glückt: Prognosen. Aktuelle Studien unterstreichen, dass es keine allgemeingültigen Prognosen zu Wirtschafts- und Handelsabkommen gibt. Was der optimale Grad an Handelsliberalisierung ist, ist von den miteinander verhandelnden Volkswirtschaften, deren Wirtschafts- und Bevölkerungsstruktur sowie vor allem von deren Präferenzen abhängig. Aus gutem Grund hat die Politik bereits aus negativen Erfahrungen und Kritik gelernt. Der Vertragstext von CETA und neuerer Abkommen verzichtet bereits auf einige umstrittene Liberalisierungsmaßnahmen früherer Vorlagen. Am Ende kommt es darauf an, wie und zu welchen Gunsten der Investitionsgerichtshof den Vertragstext in Zukunft auslegen wird. Die ökonomische Sorge wird damit am Ende zum juristischen Streitfall, wirtschaftspolitische Rechthaberei eine Frage noch zu klärenden Rechts.

 

Advertisements

Politik am Prüfstand: la familia?

Als nächstes steht der mittlerweile gültige Familienbonus Plus am Programm. Es ist schon bemerkenswert, wie lange sich diese Maßnahme in der medialen Berichterstattung hielt und hält. Für ihre Verteilungswirkung und daraus resultierende Lenkungseffekte gilt das eher nicht.

Um was geht’s?

Beim Familienbonus Plus handelt es sich um einen Absetzbetrag, der die Steuerlast einer Person direkt vermindert. Konkret reduziert sich der Betrag, den man an Lohn- und Einkommensteuer zahlen müsste, um bis zu 1.500 Euro pro Kind und Jahr. Wer gar nicht so viel Lohn- und Einkommensteuer zahlen müsste, weil er oder sie nicht so viel verdient, der hat weniger von der Maßnahme – mit ganz viel Pech sogar gar nichts. Nur Alleinverdienerinnen und Alleinerzieher wird ein Minimum von 250 Euro im Jahr als sogenannter Kindermehrbetrag zugesichert.

Was hat das mit der Volkswirtschaftslehre zu tun?

Da der tatsächlich lukrierte Familienbonus mit dem Einkommen steigt, wird durch die Maßnahme die Progression der Lohn- und Einkommensteuer konterkariert. Progression bedeutet: umso höher das Einkommen, umso höher der Steuersatz. Das wiederum fußt auf dem Leistungsfähigkeitsprinzip, welches besagt: alle haben nach Maßgabe ihrer individuellen ökonomischen Leistungsfähigkeit zur Finanzierung staatlicher Leistungen beizutragen. Der Familienbonus nun aber sagt: umso mehr jemand beitragen könnte, umso mehr kann er oder sie sich sparen – bis zum Deckel von 1.500 Euro pro Kind versteht sich.

Dies gilt auch innerhalb eines Haushalts, weshalb es naheliegt, das besserverdienende Elternteil den Familienbonus beanspruchen zu lassen. Dabei handelt es sich größerenteils um den Mann. Der Familienbonus setzt also keine Anreize, die traditionelle Rollenverteilung aufzubrechen, sondern erhöht bei einseitiger Beanspruchung den Nettoeinkommensunterschied. Durchaus anzumerken ist hier übrigens auch die sogenannte 90/10 Regelung des Anspruchs zugunsten jener Person, welche die Betreuungskosten bis dato trägt. Diese Regelung ist insbesondere in Streitfällen, etwa bei getrennten Eltern relevant und kommt hier in der Praxis wohl größerenteils Erziehungsverantwortung tragenden Müttern entgegen. Bitterer Beigeschmack: diese Regelung wird im Gegensatz zum Rest des Pakets nicht beworben und ist auch noch auf drei Jahre befristet. Ebenfalls ein wenig skurril: die Sonderstellung von Alleinverdienern und Alleinerzieherinnen schafft in einem Haushalt mit zwei Geringverdienern den Anreiz, zumindest offiziell getrennt zu leben. Dann kann das verbleibende Elternteil zumindest das Minimum von 250 Euro beanspruchen – auch wenn dies den damit verbundenen Aufwand in der Praxis wohl nicht wert ist.

Die Ungleichbehandlung je nach Einkommenshöhe wirft nicht nur innerhalb der Haushalte, sondern auch über die Haushalte hinweg die Verteilungsfrage auf. Die von Studien gegebene Antwort könnte im ersten Moment überraschen: dem gröbsten Verteilungsmaß nach, dem Gini-Koeffizienten, trägt der Familienbonus minimal, aber doch zu einer gleicheren Einkommensverteilung bei. Dies ergibt sich einerseits aufgrund der Deckelung mit 1.500 Euro pro Kind und andererseits aus der Anzahl an Kindern – davon haben Haushalte mit mittleren Einkommen tendenziell mehr als Haushalte hoher Einkommen. Der Familienbonus bewirkt daher eine relative Umverteilung von den Rändern hin zur Mitte. Dass auch der untere Rand der Einkommensverteilung relativ verliert und sich die Ungleichheit in diesem Bereich erhöht, bleibt bei einem groben Verteilungsmaß wie dem Gini-Koeffizienten außen vor. Andere Verteilungsmaße zeigen aber durchaus, dass sich der Abstand zwischen unteren und mittleren Nettoeinkommen durch die Maßnahme vergrößert, vermeintlich Abgehängte also weiter abgehängt werden.

Dennoch ist zu vermerken: keiner dieser Haushalte verliert in absoluten Zahlen. Manche bekommen mehr als andere, aber (quasi) niemand bekommt weniger als bisher. Es handelt sich um eine steuerliche Entlastung ohne direkte Gegenfinanzierung. Das heißt, der eingeführte Absetzbetrag reduziert nicht nur die Einnahmen aus Lohn- und Einkommensteuer, sondern hinterlässt auch eine Lücke im Finanzierungshaushalt des Staates. Deshalb wird auf volkswirtschaftliche Effekte zur Selbstfinanzierung gehofft. Da der Familienbonus in gleichem Maße das verfügbare Einkommen der Haushalte erhöht, ist schließlich mit Nachfrageeffekten zu rechnen – insbesondere mit steigendem Konsum und daraus resultierenden Steuereinnahmen. Wie stark diese Nachfrageeffekte ausfallen, hängt von der Konsumneigung der Haushalte ab. Da die Konsumneigung mit zunehmenden Einkommen sinkt, könnte die relative Benachteiligung der unteren Einkommen auch die Selbstfinanzierung ein wenig geringer ausfallen lassen, als es ein allen gleichermaßen zustehender Transfer getan hätte.

Was bleibt der Volkswirtschaft?

Dennoch rechnen Simulationen mit einem Selbstfinanzierungsgrad von 30% im ersten und bereits 82% im vierten Jahr. Das ist wesentlich, kostet der Absetzbetrag dem Staat dann doch etwa 1,5 Milliarden Euro im Jahr. Ein paar Kosten ergeben sich auch für den privaten Sektor. So ein Absetzbetrag macht das Steuerwesen schließlich nicht einfacher, sondern muss unter anderem auch in der Lohnverrechnung entsprechend berücksichtigt werden. Doch der damit verbundene einmalige Aufwand bewegt sich um ein paar Stellen weniger im Millionenbereich und liegt hauptsächlich bei Unternehmen. Soweit sollte es daher nicht verwundern, dass sich der Widerstand gegen den Familienbonus in Grenzen hält: es handelt sich um eine Steuerentlastung, mittels derer der politisch umkämpften Mitte gegeben und niemanden etwas genommen wird.

Spannender ist hier eher die Detailfrage, weshalb der komplexe Absetzbetrag einer einfachen Erhöhung der Familienbeihilfe vorgezogen wird. Zwei Antworten gaben die Regierungsparteien selbst: zum einen entspricht die relative Bevorteilung von mittleren Einkommen eher dem vorherrschenden Leistungsträgerdenken, zum anderen trifft die relative Benachteiligung von niedrigen Einkommen nicht nur, aber doch stark Familien mit Migrationshintergrund. Etwas außen vor, aber durchaus daraus ableitbar, blieb die längerfristige Anreizwirkung. Der Familienbonus beschränkt den von ihm gesetzten Anreiz zur Familienbildung stark auf erwerbstätige Personen und hierbei vor allem auf jene, mit zumindest mittlerem Einkommen. Während die einen kritisieren, dem Staat müsste jedes Kind gleich viel wert sein, mögen andere eben nicht notwendigerweise jede zukünftige Geburt gleichermaßen wünschenswert sehen. Schließlich birgt der hohe Kinderanteil in Haushalten geringeren Einkommens auch soziale Risiken, nicht zuletzt da Armut, Ausgrenzung und Bildung stark vererbt werden. Der Familienbonus sorgt nun in keiner Weise für mehr Chancengleichheit – im Gegenteil – aber er setzt Anreize, die Kinderzahl an die eigenen Einkommensverhältnisse und den daraus erwartbaren Chancen anzupassen. Sinn und Erfolgsaussichten dieses hypothetischen Hintergedankens wären wohl gesondert zu analysieren.

Ein Hauch von Ökonomik: Nur die halbe Wahrheit

Heute ist High School Drama angesagt. Unser Schwarm hat sich gegen uns entschieden. Für unser Ego aber kommt es nicht in Frage, dass es an uns liegen könnte. Stattdessen muss wohl eine unserer Freundinnen die Beziehung sabotiert haben. So ein Biest hat in unserem Freundeskreis natürlich nichts verloren. Das gilt es den anderen aber erst einmal klar zu machen.

Dabei sollten wir nicht einfach drauf los lästern und sie mit der Unterstellung überrumpeln. Die anderen würden rasch vermuten, das bloß die Eifersucht oder gar Boshaftigkeit aus uns spricht. Das könnte uns mehr schaden als nützen. Nein, die anderen müssen von sich aus zur von uns gewünschten Entscheidung gegen dieses Biest kommen. Die Grundlage für die Entscheidung kann also nicht bloß unser Wort sein. Stattdessen muss ihnen eine Information vorliegen, bei der sie sich sicher sein können, dass sie so stimmt und wir sie nicht in unserem Interesse ändern konnten.

Nun wissen wir doch aber selbst nicht, ob an unserer Anschuldigung wirklich etwas dran ist. An dieser Stelle kommt die berühmte halbe Wahrheit ins Spiel. Die Sache genau zu beleuchten und jedes Detail über den Charakter unserer nunmehrigen Erzfeindin aufzurollen, ist mühsam und gefährlich. Immerhin könnte dabei auch Licht auf ihre positiven Seiten geworfen und deutlich werden, wie wenig die Sache eigentlich irgendjemanden angeht. Nein, uns ist lieber, die anderen befassen sich mit wenigen, dafür aber den richtigen Fragen.

Die richtigen Fragen sind aus unserer Sicht jene, deren Antworten für sich alleine aus dem Zusammenhang gerissen und ins Rampenlicht gestellt verdächtig wirken könnten. Und da sie mal unsere Freundin war und uns vertraut hat, haben wir wohl ein ganz gutes Gefühl dafür, welche Fragen das sein könnten. Am Ende gestaltet sich unser Feldzug daher einfacher, als es anfangs den Anschein hatte: statt etwas hieb und stichfest belegen zu müssen, genügt es wahrscheinlich, wenn das aus den Antworten der Erzfeindin entstehende Misstrauen groß genug ist, um die Freundschaft mit ihr zu belasten. Deshalb müssen wir auch keine Beweise fingieren, sondern bloß den Fokus auf die von uns ausgegrabenen Dinge lenken und auf sie beschränken – ein Unterfangen, das unter Freundinnen mit durchschnittlicher Aufmerksamkeitsspanne ganz gute Chancen haben könnte.

Es geht also nicht darum, direkten und gesicherten Einfluss auf ein Urteil zu haben. Es reicht, die Einschätzung der Freundinnen so zu verändern, dass ihnen das von uns gewünschte Urteil ein Stück weit näher liegt. Ohne jegliche Intervention unsererseits schätzen sie das Biest noch überwiegend positiv. Ein paar gezielte Fragen und schon mag die Einschätzung kippen – vielleicht auch nur leicht, aber es mag genügen: statt eher ja, heißt es dann eher nein.

Wenn ‚Information Design‘ und sogenannte ‚Bayesian Persuasion‘ in unserem kleinen privaten Feldzug gute Aussichten auf Erfolg haben, mag es wohl auch in größerem Stil für Unternehmen oder der Politik funktionieren. Vor allem ist es eine attraktive Alternative zu verschwörungstheoretischem Tobak. Wer falsche Informationen verbreitet, kann aufgedeckt werden. Wenn dies zum nachhaltigen Vertrauensverlust führt, kann das am Ende mehr kosten als es nützt. Weniger riskant ist es da der Versuch, die Aufmerksamkeit der Kundschaft oder Öffentlichkeit auf jene Fragestellungen zu lenken und beschränken, bei denen wir uns nützliche Antworten erhoffen. Es geht also darum, korrekte Information zu fördern, aber eben selektiv. Der Anspruch ist dabei auch nicht, ausschließlich solche Information zu erlangen, die unserem Anliegen nützt. Es genügt, den Mix aus uns nützlicher und uns nachteiliger Information soweit zu verändern, dass die darauf aufbauende Entscheidung anderer knapp aber doch zu unseren Gunsten ausfällt. Am Ende geht es um die Wahrheit, aber eben nicht um die ganze.

Blöde Sache und ein Grund mehr, weshalb die ökonomische Theorie für effiziente Lösungen vollständige und allseits gleichermaßen vorliegende Information empfiehlt. Eine Empfehlung der die Realität in vieler Hinsicht nur selten folgt. Was daher grundsätzlich eher nach Wunschdenken klingt, ist in unserem kleinen High School Drama vermutlich nicht einmal das. Im sozialen Miteinander ist schließlich auch gerade der Schutz von privater oder gar intimer Information erstrebenswert. Werden unangebrachte Fragen toleriert, kann das Gegenüber zu unangebrachtem Antwortverhalten gezwungen sein. Das Recht zu schweigen mag den Verdacht erhöhen, die Aussage einen Verrat an sich selbst und der Vertraulichkeit darstellen. Da ist unsere Erzfeindin im Gegensatz zur Wahrheit nicht nur halb, sondern doppelt in der Zwickmühle.

Ein Hauch von Ökonomik: Taub stellen

Wir alle mögen es, recht zu haben. Wir alle genießen den Zuspruch. Und in der neuen Rolle des Influencers sind wir dafür sogar bereit, Blasen in sozialen Medien zu reiten, solange sie nur weiter wachsen. Und ob eine Blase und unsere Rolle darin wächst, hängt wie beim Umsatz auf digitalen Plattformen nicht zuletzt von den Rezessionen ab.

In sozialen Medien wie Twitter stellen sich diese Rezessionen unter anderem in den Antworten auf eigene Tweets dar. Unsere Tweets sind sozusagen unsere Produkte, unsere Follower die Stammkunden. Während positive Reaktionen quasi eine Empfehlung darstellen, wird eine kritische Antwort unseren Kundenstamm eher nicht wachsen lassen. Im Gegenteil könnte berechtigte Kritik sogar manche der bestehenden Follower verunsichern, ihre Meinung von uns trüben und unsere Rolle in unserer Blase schwächen. Ganz praktisch daher, dass der Algorithmus unseren Followern die Antworten auf unsere Tweets nur in die Timeline spielt, wenn wir auf sie reagieren. Berechtigte und nur schwer zu entkräftende Kritik zu ignorieren, hilft daher dabei, sie auch von der digitalen Wahrnehmung unserer Follower fern zu halten.

Natürlich liegt unsere Motivation, eine kritische Antwort so stehen zu lassen, nicht immer in karrieristischem Kalkül, sondern oft auch schlicht in einem effizient und daher an gewisser Stelle nötig erachteten ‚agree to disagree‘. Doch sind uns strategische Überlegungen nicht fremd und das eigene Interesse stets am nächsten, so wie es das System unserem offenbar zu beschränkten Verständniss von Adam Smith nach will: die unsichtbare Hand wird’s schon richten, unsere dient erstmal uns. Und so verpassen wir unseren Accounts eine Blattlinie, stillen Wissensdurst nur in karrierefreundlichen Dosen und folgen dem Beispiel schweigender Politiker. Denn wie Mark Twain einst sagte: Alles was man zum Leben braucht, ist Ignoranz und Selbstvertrauen. Und sollte das jemand kritisieren, dann stellen wir uns taub – alles für die Klicks.

Politik am Prüfstand: zu viel Arbeit und zu wenig Zeit?

Am ersten echten Feierabend des neuen Arbeitsjahres empfiehlt sich auch ein erster Kommentar zu wirtschaftspolitischen Entwicklungen des Letzten. Inhaltlich steht der Beginn dieser Reihe wohl dem seit Herbst gültigen Arbeitszeitgesetz zu.

Um was geht’s?

Was vielfach als Flexibilisierung der Arbeitszeit präsentiert wurde, ist faktisch bloß eine Erhöhung der Höchstarbeitszeit. Was früher nur mit dem Segen von Betriebsräten und Arbeitsmedizin gestattet war, ist nun auch ohne einen solchen möglich: 12 statt 10 Stunden am Tag, 60 statt 50 in der Woche.

Der berühmten Viertagewoche kommen Beschäftigte unter Vollauslastung dadurch nicht wirklich näher: 60:12=50:10=5. Selbst in Zeiten normaler 40-Stunden-Wochen (40:10>40:12=3,33) verpassen wissenschaftliche Befunde der Sache einen bitteren Beigeschmack: bereits nach dem zweiten 12-Stunden-Tag wären drei Rage zur völligen Erholung notwendig. Dafür könnte jedoch die Zeit fehlen, denn die unionsrechtlich gegebene Schranke (durchschnittlich 48 Stunden in 17 Wochen Durchrechnungszeitraum) erlaubt streng genommen bis zu 5 Tage und 13 Wochen hintereinander 12 bzw. 60 Stunden.

Was hat das mit der Volkswirtschaftslehre zu tun?

Nun ist es eher unwahrscheinlich, dass das Extrem gleich zur Normalität wird. Das Unternehmertum und die moderne Betriebswirtschaftslehre kann gesundes Humankapital schließlich durchaus schätzen. Die für 2017 vermeldeten 250 Mio. Überstunden, davon 45 Mio. unbezahlt, sowie die weiterhin ansteigenden Burn-Out-Erkrankungen deuten jedoch auch darauf hin, dass diese Wertschätzung an mancher Stelle auf Grenzen stößt. Und der Umstand, dass das Gesetz für einige ohnehin nur die Legalisierung des inoffiziell längst üblichen Arbeitsalltags darstellt, sollte alles andere als beruhigen.

Das Hintanstellen langfristiger Planung, um kurzfristige Auftragsspitzen zu bewältigen, muss volkswirtschaftlich Sorge um die Nachhaltigkeit bereiten. Ja, die Arbeitskraft des Menschen regeneriert sich in Erholungsphasen. Doch werden erneuerbare Ressourcen im Optimum nicht bis zur Grenze der kurzfristigen Belastbarkeit beansprucht. Der optimale Grad an Beanspruchung stellt viel mehr sicher, dass sich Belastung und Erholung im Gleichgewicht befinden. Das heißt, der optimale Mix aus Beanspruchung und Erholung ermöglichen der Arbeitskraft, ihr Leistungsniveau und damit ihre Gesundheit langfristig auf konstantem Niveau zu erhalten. Es darf angenommen werden, dass dieser optimale Mix je nach Alter und Berufsgruppe variiert. Die generelle Erhöhung der Höchstarbeitszeit ist daher kaum mit einer nachhaltigen Nutzung der volkswirtschaftlichen Arbeits- und damit Produktivkraft vereinbar.

Die Produktivkraft lädt zu einer weiteren theoretischen Überlegung ein. In der gängigen Theorie leitet sich der im Arbeitsmarktgleichgewicht geltende Lohnsatz aus der Grenzproduktivität der Arbeit her. Auch in den kollektiven Lohnverhandlungen der Sozialpartner spielt die Produktivität eine große Rolle. Nun ist es in der Praxis so, dass mit zunehmender Erschöpfung nicht nur das Unfallrisiko steigt, sondern auch die (Grenz-)Produktivität abnimmt. Längere Arbeitszeiten können sich daher theoretisch auch negativ auf die Lohnsetzung auswirken.

Doch anstatt gänzlich naiv der Theorie zu folgen, ist gerade die naiv anmutende Pauschalisierung durch das Gesetz hervorzuheben. So viele Arbeitskräfte und Berufe über einen Kamm zu scheren, ist eine Vereinfachung der Welt, wie man sie sonst wohl nur von ökonomischen Modellen kennt. Die angeführten Chancen und Risiken jeder weiteren Arbeitsstunde variieren in der Realität natürlich stark je ausgeführter Tätigkeit. Es ist die Pauschalisierung, welche sowohl Befürworter als auch Kritikerinnen rasch der Unsachlichkeit überführt. Es ist die Umgehung der einst konsultierten Arbeitsmedizin, welche an die Stelle einer fallspezifischen sachlichen Entscheidung eine persönliche stellt.

Daran anknüpfend ist anzumerken, dass die mit längeren Arbeitszeiten einhergehenden Risiken großenteils von den Beschäftigten und in weiterer Folge dem solidarisch finanzierten Gesundheits- und Sozialsystem getragen werden. In gewisser Weise handelt es sich mit Blick auf die entscheidenden Akteure daher um externe Kosten. Den Arbeitnehmerschutz in Bezug auf zeitliche Belastungsgrenzen aufzuweichen, dient schwerlich einer Internalisierung.

Was bleibt der Volkswirtschaft?

Der Jubelschrei von Unternehmensseite steht daher nicht zwangsläufig für volkswirtschaftliche Effizienz. Die subjektiv gewonnene Flexibilität gibt betriebswirtschaftlich Grund genug zum Jubeln. In wie weit die Flexibilisierung auch zum Vorteil und nach Wunsch der Beschäftigten genutzt wird, hängt neben der Eigenverantwortung vor allem von der jeweiligen Verhandlungsmacht ab. Für einen großen Teil der Beschäftigten ist diese Verhandlungsmacht spätestens nach Aushebeln der Betriebsräte eher überschaubar, was sich in den breiten Protesten gegen die Maßnahme wiederspiegelt.

Proteste, die auch empirische Grundlage finden. Seit der letzten flächendeckenden Arbeitszeitverkürzung hat sich das reale Bruttoinlandsprodukt mehr als verdoppelt. Den dafür teilweise überlasteten Beschäftigten stehen 340.000 Arbeitslose gegenüber und die Herausforderungen unserer Zeit werden diese Lage nicht entschärfen: die Digitalisierung befeuert das qualitative Mismatch und die Erderwärmung lässt die Belastung einiger Berufsgruppen noch höher ausfallen als schon bisher. Der Volkswirtschaft und Teilen ihrer Produktivkraft könnte die sogenannte Flexibilisierung zugunsten kurzfristiger Auftragsspitzen langfristig daher teuer zu stehen kommen. Beim mit der Maßnahme angestrebten Gewinn an Konkurrenzfähigkeit könnte es sich somit auch um ein temporäres Vergnügen handeln.

Me, Myself and Economics: Disequilibrium

I considered to choose ‘A Non-Equilibrium Approach’ as a subtitle of my dissertation thesis. About at the same time a colleague of mine stated that ‘disequilibrium economics’ are a ‘logic implausibility’ as an equilibrium in economics is not much more than a consistency condition – different to the notion in physics where it mainly refers to a state where the described system is at rest. I have to disagree with this maybe unintentional attempt to whitewash a bunch of approaches which are – as probably every other approach – criticized for good reason.

Just think of basic micro or macro and the definition of a market or an economy in equilibrium. There the term is not used to describe consistency in the derivation of the outcome, but mainly refers its characteristics – for example that supply and demand are balanced. Go further in the curriculum and think of an equilibrium in game theory. While it is also derived in a way which is consistent with the stated assumptions, its description states more than that – for example that it is a combination of strategies for which no individual has an incentive to unilaterally deviate.

Therefore, equilibrium approaches in my opinion go beyond detecting an outcome that is logically implied by assumptions and step-by-step analytics. They also tend to presume an outcome of a certain type and thereby risk the neglect of other outcomes, strategies, behaviour, and thereby even whole issues that may be highly relevant in reality.

In case my concern is not clear, a discussion of Rubinstein’s famous e-mail game may help. The e-mail game may be described as the following: A couple wants to meet and prefers being together over being separated. However, if it rains they prefer to meet inside, otherwise the prefer to meet outside. Whether it rains or not is determined by nature and only one person, let’s assume the woman, knows the weather for sure. If it will rain, she sends an e-mail to the man. Every received e-mail is read and automatically triggers a response, but every e-mail also gets lost with a certain small probability. That means that the e-mail conversation may last for a long time and even forever, but the probability for the latter case tends to be zero.

Because of the small but nevertheless positive probability for an e-mail to get lost, both parties will never know for sure how many e-mails have been sent. The woman knows whether she sent an e-mail or not, but she is confused about the state where one or two e-mails were sent (captured by the partition Pw). While it may be that the second e-mail – sent by automatic response from the man’s account – got lost, it also may be the case that her e-mail did not pass through in the first place. The moment the second e-mail passes through, the third e-mail is triggered automatically and she can distinguish that state from the ones before. However, she again cannot distinguish between the state of three and four e-mails sent – because if she would know about the fourth e-mail, she would have automatically sent the fifth, being in another state. The man faces a similar incompleteness of information (captured by the partition Pm). He in turn is confused about whether none or one e-mail was sent, just like he is confused about whether two or three e-mails were sent and so on.

Rubinstein thereby shows that the strictly formal approach does not lead to an equilibrium in which they meet outside in the nearby game even if there is a high probability for the information to pass on. In fact, the formal result of the game described above is that none of the two will risk to go outside as there is no state (described in terms of e-mails sent) about whose appearance exists common knowledge. However, the example not only shows how easy simple games may get complicated in formal term, but also shows how misleading the strictly formal conclusion can be with regard to an underlying issue. It was about a couple who wants to meet, inside on rainy days, outside otherwise. They both know their preferences. They differ only in the information they have – first about the state of nature and second about how many e-mails are sent. The second issue however should not be the one of primary interest. Instead a social scientist and therefore economist should just ask: how many e-mails have to be sent that they both know that they both know about the weather and therefore human beings of these days will coordinate for the preferred equilibrium.

One e-mail sent just states that it is rainy and the woman knows about it. Two e-mails sent means that the man received this important information, but the women does not know that yet. Three e-mails sent means that the woman knows that the man knows. Four e-mails sent means that the man now knows that the woman knows that he knows. Five e-mails mean that the woman now knows that the man knows that the women knows that the man knows. At the latest after the sixth and seventh e-mail both know that they reached the aspired situation where both know that they both know.

While they can never be sure that their last e-mail passed through, they reach a state where human beings of these and thereby the economic agents of interest will not care about it. Agents may differ with regard to the number of e-mails they require in order to believe in a successful coordination, but I claim that there are not much of them who require more than the five to seven e-mails.

So, while the formal equilibrium approach provides some insights in favour of a theoretical statement about mutual and common knowledge, it risks to draw too much attention towards the wrong issue or at least away from non-equilibrium outcomes that may be highly probable in reality. I think that this is a general issue of equilibrium economics, which are worthwhile and helpful in many regards, but always have to be done as well as interpreted with caution.

Me, Myself and Economics: Unknowns, Trials and Errors

Maybe some remember the moment during their study, when they gradually left their textbooks behind and came in touch with journals and papers instead. While it probably felt like a step further towards the scientific process or even into the scientific sphere, one of the first obvious differences probably was the countless citations authors had stuffed in their introductions in order to impressively show how well their work is embedded in the state of the art as well as in the history of the discipline. I admired those authors for their comprehensive knowledge. Facing the extent of the literature I seemingly could have known already that the obvious question was and always will be: should I even know it?

In contrast to personal matters, knowing always seems to be preferable to ignoring when it comes to science. However, it is not that easy. For example, if I know the conclusions derived in a model or based on a study, while at the same time I do not know the underlying assumptions or the characteristics of the test persons, there is a high chance of misinterpretation and even misapplication of the conclusion I know. Especially in our discipline a lot of particles of information are taught which in the packed form crucially lack general validity. This is one reason why I took a little extra time in order to stick with textbook-knowledge. As I am critical of the fundamentals I probably have to step in at a fundamental level.

At the same time, new knowledge is generated day by day. While complete knowledge is utopic anyway, even specialization does not guarantee sufficient knowledge with regard to the issues you are investigating. Facing over two hundred years of economics, meanwhile hundreds of journals with economic background, and our restriction in time, it leaves the quest of acquiring the ‘right’ and ‘necessary’ knowledge with quite a load of uncertainty. For me science therefore always will partly – probably even to large parts – be about trial and error. That is the second reason for why I probably invested less time in catching up with reading than some would expect from a junior fellow and instead worked on a deeper understanding of what I already – seemingly – know.

The third reason for my priorities as I set them in the recent past builds on the previous one. It is clearly important to search the literature for new or comparable ideas, whether it is in favour of inspiration or just to avoid unnecessary repetition. However, already in the course of my study I did not content myself with just knowing an approach and its implications as they were taught in class. I liked to trace its derivation and apply it on my own. I claim that I was often rewarded with a more detailed understanding than many of my colleagues were able to show.

Of course, by sticking to this approach I clearly risk a further increase of my steadily growing reading list. This in turn increases the risk for repetitions of trials unknown to me. However, due to the admired authors and their frequently released literature surveys the shortfall, at least with regard to scientific content, may be not that comprehensive as the number of unread articles and books may suggest. Given that, involuntary repetition may not be rewarded with appreciation, but may again prove worthwhile with regard to a general and deeper understanding of the issues. Weighing up the remaining risk with the aspired chance of strengthening my comparative advantage I stayed on track: try and err, instead of only read, believe and copy in favour of an easy success.

At this point I want to refer to some economic model I am currently dealing with. It captures a sector of firms applying research and development in favour of new machines. The firms in this sector try to invent on the one hand, and imitate on the other hand. Efforts in favour of imitation means that they search for better machines in their competitors’ portfolio. Efforts in favour of invention means that they try to develop a new machine on their own.

Progress and its dispersion clearly needs both, research and development. It does not end with those diligent role models, who commendably keep track with the literature and reliably complete the paths scribed by it. There is also a need for those taking the entrepreneurial risk of abandoning the popular track now and then, testing new approaches or combining old ones in a new way – as Schumpeter would maybe state it.