Stolz und Vorurteil

Ökonomische Theorie im Schatten der Krise. Von Markus Knell

Online seit: 30. September 2019

Die globale Finanzkrise, die im Herbst 2007 ihren Ausgang nahm, hat eine Vielzahl an neuen Fragen aufgeworfen, die seitdem in Artikeln und eilig verfassten Büchern behandelt werden: Welche Faktoren haben die Finanzwelt in die Krise gestürzt? Wie lange wird diese noch andauern und welche Maßnahmen sollten ergriffen werden, um ihre Auswirkungen zu dämpfen? Welcher regulatorische Rahmen kann die Wahrscheinlichkeit einer neuerlichen Krise minimieren? Die Schockwelle der Finanzkrise hat aber nicht bei Ursachenforschung, Reformliteratur und dem Streit um die Deutungshoheit Halt gemacht, sondern auch das Gebäude der ökonomischen Wissenschaft selbst erfasst. Wiederholt wurde die Frage nach der Mitverantwortung der Ökonomie, insbesondere der makroökonomischen Forschung, an der Krise gestellt, und es wurde teils lauthals eine Neuorientierung in Ausrichtung, Ausgestaltung und Ausbildung gefordert.

Kritik dieser Art gab es natürlich schon immer, aber während sie in der Vergangenheit vornehmlich in der Peripherie formuliert wurde, so ist sie nunmehr ins Zentrum gerückt und wird in etablierten Zeitschriften und von renommierten Ökonomen geäußert. Drei Publikationen des letzten Halbjahres seien hier Pars pro Toto erwähnt. Der Economist widmete die Titelgeschichte seiner Ausgabe vom 18. Juli dem Thema „What went wrong with modern economic theory – and how the crisis is changing it“. Fast parallel dazu erschien ein Brief britischer Wissenschaftler, in dem diese eine Antwort auf die von der Queen aufgeworfene Frage versuchten: „Why had nobody noticed that the credit crunch was on its way?“ Und zuletzt publizierte der Nobelpreisträger Paul Krugman am 6. September einen viel beachteten Artikel im New York Times Magazine mit dem lapidaren Titel: „How Did Economists Get It So Wrong?“. Jeder dieser Beiträge zog eine Flut an Einwänden, Ergänzungen und Gegenkommentaren sowohl in der Zeitungslandschaft als auch in der Blogosphäre nach sich. Dabei wurde manchmal ein scharfer und untergriffiger Ton angeschlagen, wie man ihn in diesem Umfeld nicht gewohnt war. Im Folgenden möchte ich einige Überlegungen anstellen, warum die Krise dieses Karussell der Selbstreflexion angestoßen hat, wodurch sich die Vehemenz der Debatte erklären lässt und welche Richtungsänderungen für die ökonomische Forschung zu erwarten sind.

Ein maßgeblicher Faktor ist dabei wohl, dass die Krise zwei Selbstüberschätzungen der Zunft deutlich gemacht hat: die Überschätzung des Wissens über die Zusammenhänge und die Steuerbarkeit makroökonomischer Vorgänge und die Überschätzung der Homogenität der Lehrmeinungen.

Der große Konsens?

Seit Beginn der 90er-Jahre bildete sich in der makroökonomischen Forschungswelt ein Konsens über die richtige konjunkturpolitische Steuerung heraus. Dieser bestand – kurz gesprochen – darin, dass der Einsatz geldpolitischer demjenigen fiskalpolitischer Mittel vorzuziehen wäre und dass er in einem Umfeld vonstatten gehen sollte, in dem unabhängige Notenbanken ein spezifisches Inflationsziel verfolgen, in dem die Wechselkurse flexibel sind und die Finanzmärkte durch eine Kombination von Selbstregulierung und lockerer Reglementierung organisiert sind. Die Entwicklung der letzten 20 Jahre schien diesem Rahmen recht zu geben. Die meisten industrialisierten Länder durchlebten nur kurze rezessive Phasen, die Inflationsraten waren niedrig, und auch die sporadischen Börseneinbrüche (etwa das Platzen der New Economy Blase) waren nur von kurzer Dauer. In etwas voreiliger Euphorie wurde der Anbruch des Zeitalters der „Great Moderation“ ausgerufen. Die entscheidenden ökonomischen Probleme der Zukunft – so meinte man – wären struktureller Natur (Arbeitsmarktpolitik im Zeichen der Globalisierung, die Organisation solider Pensions- und Gesundheitssysteme etc.) und lägen daher außerhalb der Verantwortung der Geld-, Finanz- und Konjunkturpolitik.

Der Konsens von gestern: Geldpolitische Mittel sind den fiskalpolitischen vorzuziehen.

Der Herausbildung dieses makropolitischen Konsens entsprach auf der wirtschaftswissenschaftlichen Seite eine Angleichung der theoretischen Analyse makroökonomischer Vorgänge. Die Konflikte der 1970er-Jahre, in denen sich Befürworter und Gegner staatlicher Interventionen noch heftige argumentative Duelle lieferten, schienen beigelegt. Um den Hintergrund dieser Konflikte besser zu verstehen, seien die polaren Positionen hier grob skizziert. Auf der einen Seite stand eine Gruppe von Ökonomen, die einen stark an den Postulaten des homo oeconomicus geschulten Zugang propagierte. Nach ihrer geografischen Verankerung in Chicago, Minnesota und Rochester werden diese auch manchmal als „Süßwasserökonomen“ tituliert (und zählen etwa die Nobelpreisträger Robert Lucas und Edward Prescott in ihren Reihen). Dieser Denkrichtung zufolge sind ökonomische Akteure vorrangig an der Verfolgung ihrer eigenen Ziele orientiert („Eigennutz“), sie versuchen dabei die Verhaltensweisen der anderen Marktteilnehmer und der staatlichen Institutionen bestmöglich vorherzusagen („Rationale Erwartungen“), und sie treffen ihre Entscheidungen in optimaler Weise („Nutzenmaximierung“). Besonderes Gewicht wird auf das Zusammenspiel unterschiedlicher Akteure und verschiedener Märkte gelegt, wodurch sich oft überraschende Schlussfolgerungen ergeben („Gleichgewichtseffekte“). Eine zentrale Aussage dieser Schule ist die „Ineffektivität von Wirtschaftspolitik“. Geld- und fiskalpolitische Maßnahmen haben nur schwache (und unter speziellen Annahmen gar keine) Effekte auf die wirtschaftliche Entwicklung, da Haushalte und Firmen die gleichen Informationen wie die politischen Akteure besitzen und auch langfristige Perspektiven in ihre Erwartungsbildung und Entscheidungsfindung einfließen lassen.

Demgegenüber stand eine loser organisierte Gruppe von „Salzwasserökonomen“, die ebenfalls nach den Universitäten benannt wurden, an welchen sie hauptsächlich tätig waren – Harvard, MIT, Berkeley. Auch wenn diese Ökonomen die Bedeutung von Eigennutz, Erwartungsbildung, Nutzenmaximierung und Gleichgewichtseffekten nicht grundsätzlich in Abrede stellten, so waren sie doch zugleich überzeugt, dass es systematische Abweichungen von diesen idealtypischen Charakteristika gibt, dass Märkte nicht immer zu einer effizienten Allokation führen und dass Staatseingriffe wirksam und wünschenswert sein können.

Die letzten Jahrzehnte haben nun eine langsame Annäherung dieser Schulen gebracht. Die Salzwasserökonomen übernahmen das methodische Instrumentarium der Süßwasserökonomen, während letztere die Annahme vereinzelter Marktimperfektionen akzeptierten. Das Amalgam („Brackwasserökonomie“, wie es vom Economist genannt wurde), beherrscht mittlerweile die Lehrbücher und Lehrstühle der wichtigsten Universitäten und die Grundlagenforschung in vielen wirtschaftspolitischen Institutionen. Es bildet die Basis, auf welcher jener oben geschilderte makroökonomische Konsens aufbaut und aus welcher er seine szientifische Legitimation bezieht.1 Die Kontroversen über Methodenwahl und politische Implikationen schienen unter diesem gemeinsamen Dach versöhnt. Laut Krugman war dies aber nur ein Scheinfriede. Die Krise hat nicht nur Zweifel an der konsensualen Politik geweckt, sie hat auch das Brackwasser wieder entmischt und alte Risse entlang ideologischer und methodischer Bruchlinien sichtbar gemacht. So haben Ökonomen, die eher der Salzwasserschule zugerechnet werden (wie Paul Krugman, Bradford de Long, Mark Thoma) die massiven und unkonventionellen monetären und fiskalischen Krisenbekämpfungsmaßnahmen der amerikanischen Politik größtenteils unterstützt (oder sogar als zu schwach befunden), während die Süßwasserökonomen (Robert Barro, John Cochrane, Robert Lucas) diesen eher skeptisch bis ablehnend gegenübergestanden sind.

Am Pranger steht nun also jenes scheinbar konsensual-konvergente Praxis-Theorie-Geflecht. Die Kritik bezieht sich dabei primär auf den typischen makroökonomischen Fachartikel, wie er in diesem Umfeld verfasst wurde und wird. Um diesen Bezugspunkt deutlich zu halten, werde ich – eine beliebte Konstruktion der einschlägigen Literatur paraphrasierend – des Öfteren auf eine „repräsentative, aktuelle, makroökonomische Analyse“ (RAMA) rekurrieren, die gleichsam die wesentlichen Elemente dieser Beiträge reflektiert. Der Vorwurf, die RAMA habe zur Krise beigetragen, nimmt verschiedene Ausprägungen an, und fünf wiederholt vorgebrachte Anklagepunkte seien hier diskutiert: falsche Verallgemeinerungen, blinde Flecken, Monopolisierungstendenzen, methodische Mängel und Übermathematisierung.

Falsche Verallgemeinerungen und Beratungsfehler

Die RAMA bedient sich mathematischer und statistischer Methoden, um komplexe Realitäten in handhabbare Modelle zu transformieren und um empirische Daten zu analysieren. Dabei muss zwangsläufig vereinfacht werden, und jede Schlussfolgerung ist nur so allgemeingültig, wie die Annahmen, auf denen sie beruht. Die Einschränkungen der Tragweite der Resultate geht aber nur allzu oft bei der Popularisierung und der Übersetzung in die Sprache der politischen Empfehlungen verloren. Das kann mit einem willfährigen Entgegenkommen zu tun haben, das den wirtschaftspolitischen Akteuren eine erwünschte Eindeutigkeit und Widerspruchslosigkeit anbietet, welche der Stand der Forschung eigentlich nicht hergibt. Oder zumindest mit einem nur schwach ausgeprägten Widerspruchsgeist, wenn die Resultate in einer missbräuchlichen Weise zurechtgebogen werden. Auf die Bedeutung dieser Faktoren wurde etwa von Luigi Spaventa (2009)2, David Colander (2009)3 und Barry Eichengreen (2009) hingewiesen. Letzterer sieht in der selektiven und verzerrten Adaptierung wissenschaftlicher Resultate gar die Hauptverantwortung der ökonomischen Profession an der Krise, und er bringt hier auch mögliche finanzielle Motive aufs Tapet.4 Jedenfalls ist es unstatthaft, die Verantwortung für den falschen Gebrauch von Forschungsergebnissen einzig den Adressaten zuzuweisen. Es mag zwar stimmen, dass die RAMA oft – in Fußnoten und Halbsätzen – Einschränkungen und Warnhinweise zum Geltungsbereich ihrer Ergebnisse enthält. Aber der einzelne Forscher sollte wohl mit Zeitmangel, Fantasielosigkeit und dem schieren Unverständnis seiner Leserschaft rechnen. Man weiß ja auch aus dem Feld der Technikfolgenabschätzung, dass bei „menschlichem Versagen“ die eigentliche Ursache nicht selten in der benutzerunfreundlichen Handhabung eines Geräts gelegen ist. Der Vorwurf, dass die RAMA Fehlinterpretationen und allzu großzügigen Anwendungen Vorschub geleistet hat, ist letztlich nicht von der Hand zu weisen.

Die Finanzkrise hat nun wieder stärker deutlich gemacht, wie stark die Modellergebnisse von den Annahmen und der verwendeten Methode abhängen. Das trifft nicht nur auf ihre Verwendung in der Politikberatung zu, sondern mehr noch auf den inner-ökonomischen Diskurs. Die heftigen Debatten über die Größe des fiskalischen Multiplikators, die Möglichkeiten der Geldpolitik bei einem Zinssatz von Null und die Königswege zur Rekapitalisierung des Bankensystems sind Ausdruck dieser Rückbesinnung auf die Nichtneutralität von Modellannahmen und des Auseinanderdriftens der nur scheinbar angenäherten Meinungen.

Einige Stimmen (Saint-Paul, 2009; Spaventa, 2009; Leijonhufvud, 2009; Economist, 2009) rufen als unmittelbare Maßnahme nun nach größerer Zurückhaltung und mehr Bescheidenheit (gleichsam die „Great Modesty“ nach der „Great Moderation“). Selbstermahnung dieser Art ohne gleichzeitige Strukturveränderung verpfuffen allerdings meist ungehört – zumal im Kreise derjenigen, die sich im Chor der tausend Stimmen erst noch Gehör verschaffen wollen.

Blinde Flecken und taube Ohren

Damit zusammenhängend wird auch moniert, dass die RAMA wichtige Bereiche, die im Umfeld der Great Moderation keine Rolle zu spielen schienen, einfach ausblendet. Und was in den Modellen nicht existiert, das spielt auch bald in Gedankenexperimenten und beim Blick auf die Realität keine Rolle mehr. Fiskalpolitische Instrumente kamen in der RAMA nur am Rande vor, und es wurde auch – was weitaus schwerwiegender ist – dem Banken- und Finanzsektor im Allgemeinen keine besondere Bedeutung geschenkt. Diese Aussparung wird bisweilen auf die vorherrschende Überzeugung zurückgeführt, dass Finanzmärkte im Grunde genommen effizient organisiert sind und sich mehr oder minder selbst regulieren. Da aber die Möglichkeit von Crashs in der RAMA nicht vorgesehen war, so konnte sie auch nicht dazu herangezogen werden, um Wirkungskanäle und Gegenmaßnahmen zu diskutieren. So meinte etwa Charles Goodhart, dass diese Modelle „alles ausschließen was mich interessiert“.5

Falsche Verallgemeinerungen, blinde Flecken, methodische Mängel und Übermathematisierung.

Natürlich gab es eine weniger repräsentative Literatur jenseits der RAMA, die sich sehr wohl mit Phänomenen des Finanzmarktes und dessen Wechselspiel mit dem realen Sektor auseinandergesetzt hat – von Keynes, Kindleberger und Minsky bis zu den Forschungszentren an der Princeton University und der London School of Economics. In der Verteidigungsrede der modernen Ökonomie wird nun auch gerne auf diese durchaus überschaubare Literatur verwiesen (Cochrane, 2009; Economist, 2009). Das klingt allerdings ein bisschen wie eine nachträgliche Rechtfertigungsstrategie, so wie nach dem Umsturz eines tyrannischen Regimes die Glorifizierung der versprengten Widerstandsgruppen von den Verfehlungen der Masse ablenken soll.

Horizontverengung und Monopolisierungstendenzen

An dieser Stelle scheint es einen weiteren Auffassungsunterschied zu geben. Während ein Teil der Kommentatoren davon ausgeht, dass jene ausgeblendeten Felder bald in die RAMA integriert werden können, sehen andere die gesamte moderne Makroökonomie in einem schiefen Licht. Gerade dadurch, dass sich die RAMA als einzig zulässiger Analyserahmen präsentiert und als solcher die Zeitschriften und Lehrpläne beherrscht, habe sie auch zu einer schleichenden Horizontverengung beigetragen. Eine Integration fehlender Teile würde daran nichts ändern, weil das am System nichts ändert, welches letztlich eine beschränkte und reduktionistische Sichtweise befördert. Was Not täte, wäre eine umfassendere Ausbildung und eine wohlwollende Auseinandersetzung mit dissidenten Auffassungen (Hodgson, 2009; Skidelsky, 2009). Das wäre umso dringlicher, als Nonkonformität und das Vertreten von Minderheitsmeinungen per se schon einiges an Courage und Energie verlangt, worauf Barry Eichengreen (2009) hingewiesen hat.

Während Paul Krugman (2009) den radikalen Standpunkt einer Verschrottung der RAMA vertritt, sehen andere Kommentatoren deren Perspektiven in einem rosigeren Licht. Es ist in jedem Fall ironisch, dass sich die moderne ökonomische Theorie den Vorwurf gefallen lassen muss, monopolistische Tendenzen zu besitzen und das freie Spiel der wissenschaftlichen Meinungen zu behindern.

Homo oeconomicus vs. homo imperfectus

Zwei weitere Kampfgebiete in dieser Krisendiskussion betreffen die Annahmen über den homo oeconomicus und die Rolle der mathematischen Theorie. Das weiter oben skizzierte Denkmodell eines homo oeconomicus, das auf rationalen Erwartungen, Eigennutzen und optimaler Entscheidungsbildung aufbaut, ist fraglos sehr stilisiert. Nicht überraschend wurde es – auch bereits vor der Krise – gerne als wirklichkeitsfremd und entstellend attackiert. Der alleinige Vorwurf, es wäre eine Karikatur menschlichen Handelns, schießt aber hier ins Leere. Jede Karikatur muss zuspitzen, übertreiben und wesentliche Bestandteile der Wirklichkeit ausblenden, um den Kern einer Person oder eines Problems herauszuschälen. In diesem Sinne dient jener homo oeconomicus auch nur als nützliche Abstraktion, um zu untersuchen, was passierte, wenn alle Individuen aus seinem Holz geschnitzt wären. Abermals trifft aber der Vorwurf, dass die Karikatur dann oft mit ihrem Gegenstand verwechselt und als realistisches Gemälde verkauft wurde. Zu wenig Mühe wurde darauf verwendet zu untersuchen, in welcher Hinsicht die Postulate des homo oeconomicus (wie er auch die RAMA-Welten bevölkert) dem wirklichen Verhalten widersprechen. Akerlof und Shiller (2009) referieren in ihrem Buch „Animal Spirits“ etwa eine ganze Reihe an Ergebnissen der psychologischen und soziologischen Literatur, die eine Erweiterung dieses Modells nahelegen: Herdenverhalten, Konformismus, Geldillusion, die Bedeutung von fairer Behandlung und Vertrauen etc. Die Meinungen sind allerdings geteilt, inwieweit diese Elemente nahtlos in die herkömmliche Analyse integriert werden können. Die Annahmen, dass viele Menschen nicht rein eigennutzorientiert agieren, dass sie Eigenheiten wie Geldillusion oder Verlustaversion besitzen und dass sie Daumenregeln und Heuristiken anstatt von Optimierungskalkülen verwenden, könnten durchaus konsistent in den paradigmatischen Modellrahmen eingefügt werden. Es gibt hier auch schon einige Arbeiten (besonders auch im Bereich der Finanztheorie), die das versucht haben. Weitaus schwieriger wird das hingegen bei fundamentaleren Annahmen, die etwa die Erwartungsbildung oder die Koordinationsfunktion von Märkten betreffen. In dem Maße, wie die Entwicklung einer dynamischen Wirtschaft ungewiss ist, wird jede Aktion immer im Lichte radikaler Unsicherheit passieren. Weder lässt sich die neueste Innovation von morgen vorhersehen, noch die Entwicklung der Börsenkurse und ebenso wenig die Einschätzung und Reaktion aller anderen Individuen. Die auf historischen Daten aufbauenden Modelle der Makroökonomie und Finanzwirtschaft werden diese Elemente der unsicheren Zukunft und unberechenbaren Gegenwart stets nur unvollkommen erfassen (vgl. Taleb, 2006; Frydman und Goldberg, 2009). So sieht auch eine kleinere Gruppe an Ökonomen (vgl. Colander et al., 2008) die Zukunft nicht so sehr in der Integration verhaltensökonomischer Annahmen in die RAMA, als vielmehr in einer verstärkten Beschäftigung mit neuen Modellierungsansätzen, die auf Netzwerktheorien oder agentenbasierten Modellen zurückgreifen.

Wieviel Mathematik braucht der Ökonom?

Doch nicht nur der homo oeconomicus wurde an den Pranger gestellt, auch die übertriebene Betonung formaler Methoden wurde als Ursache der Verirrung angesehen. „As I see it, the economics profession went astray because economists, as a group, mistook beauty, clad in impressive-looking mathematics, for truth.“ (Krugman, 2009). Dieser Satz alleine hat einen besonderen Sturm der Entrüstung bei vielen Kommentatoren ausgelöst und zu mancher Entgegnung geführt. So meinte etwa Saint-Paul (2009): „While economics is admittedly quite a ‚dry‘ discipline, I firmly believe that replacing the training of economists by some soft transdisciplinary melting pot would be a catastrophe“. Ähnlich Cochrane (2009): „The problem is that we don’t have enough math. Math in economics serves to keep the logic straight, to make sure that the ‚then‘ really does follow the ‚if,‘ which it so frequently does not if you just write prose.“ Es ist bezeichnend, dass diese drei mathematik-kritischen Zeilen Krugmans mehr Widerspruch erregt zu haben scheinen, als seine Deutung der makroökonomischen Entwicklung. Es ist zu vermuten, dass Krugman (der seine eigene Karriere natürlich ebenso mit anspruchsvolleren mathematischen Modellen begründet hat) diesen Gegenmeinungen gar nicht widersprechen würde. Auf Stehsätze wie „So viel Mathematik wie nötig, so viel Anschauung wie möglich“ oder „Mathematik muss immer Mittel und darf nie Selbstzweck sein“ kann man sich leicht einigen. Schwieriger wird es dann im Einzelnen festzumachen, wo das eine aufhört und das andere beginnt.

Einige Ökonomen fürchten um die hohen persönlichen Kosten ihrer Investitionen in das Erlernen von Techniken.

Die Krugman’sche Kritik hat wohl eher auf ein allgemeines Klima abgestellt, in dem formale Kenntnisse wichtiger sind als ökonomische Intuitionen und in dem das Erlernen von Methoden die Beschäftigung mit Zusammenhängen verdrängt. Ohne aber abstreiten zu wollen, dass in einer Wissenschaft, in der es primär um Preise und Mengen geht, die Verwendung mathematischer Methoden alternativenlos ist. Die gegenseitigen Vorwürfe scheinen sich jeweils auf einen Popanz zu beziehen. Die eine Seite vergleicht die besten formalen Artikeln mit den schlechtesten Prosabeiträgen journalistischen Zuschnitts, während die andere Seite scharfsinnige verbale Analysen mit traurig-irrelevanten formalen Studien kontrastiert. Sinnvoller wäre es hier, die durchschnittliche mathematisierte Arbeit (eben eine RAMA) einer durchschnittlichen verbalen Exposition gegenüberzustellen. Jede methodische Herangehensweise hat Vor- und Nachteile, wird bestimmte Aspekte des Betrachtungsgegenstandes besser in den Griff bekommen und wird wohl auch unterschiedliche Talente reüssieren lassen. Wie die Gesamtbilanz solch einer Gegenüberstellung aussehen könnte, kann anhand der vorliegenden Zitate nicht beurteilt werden.

Es ist jedenfalls bezeichnend, dass sich die interne Debatte stärker um Fragen der Methodik als um solche der politischen Implikationen zu drehen scheint. Das mag auch damit zu tun haben, dass einige Ökonomen um die hohen persönlichen Kosten ihrer Investitionen in das Erlernen von Techniken fürchten. In eine ähnliche Kerbe schlägt auch der Economist (2009). „Today’s economists tend to be open-minded about content, but doctrinaire about form. They are more wedded to their techniques than to their theories. They will believe something when they can model it.“ Die Kritik an einer Mathematisierung ist im Übrigen ideologisch neutral, da zum Beispiel die in den USA gut organisierten Anhänger von „Austrian Economics“ formale Methoden und Staatsinterventionen gleichermaßen ablehnen.

Ein Paradigmenwechsel oder „business as usual“?

Zum Abschluss soll hier der Frage nachgegangen werden, welche Rückschlüsse die Krisendebatte für die weitere Entwicklung der ökonomischen Theorie offeriert. Man muss dabei allerdings gleich betonen, dass die „Krise der Ökonomie“ nur ein bestimmtes Segment der Wirtschaftswissenschaften – die makroökonomische Forschung, die RAMA – betrifft. Wichtige Zweige der Ökonomie, die in den letzten Jahren Aufmerksamkeit und Zulauf erfahren haben, sind davon kaum betroffen. Darunter fallen etwa die stark empirisch ausgerichteten und mit Mikrodaten, Labor- und Feldexperimenten agierenden Felder der angewandten Wirtschaftspolitik (z.B. zu Arbeitsmark- und Entwicklungspolitik) oder die in die Hirnforschung reichenden Studien der Neuroökonomie.

Was den Bereich der makroökonomischen Forschung betrifft, so ist das Verdikt der Nicht-prognostizierbarkeit künftiger Entwicklungen natürlich auch auf den Verlauf der Theoriebildung selbst anzuwenden. Die kursorische Durchsicht der unterschiedlichen Meinungen und Appelle zeigt hier ein überaus divergentes Bild, wobei zwei Punkte besonders auffällig sind.

Erstens sehen sich viele Kommentatoren durch die Ereignisse der Krise und die dadurch zum Vorschein tretenden wissenschaftlichen Mängel in ihrer vorgefassten Meinung bestätigt. Wer in den Jahren vor der Krise die Annahme rationaler Erwartungen (Frydman und Goldberg, 2009), den repräsentativen Agenten (Colander et al., 2008), die Mathematisierung (Skidelsky, 2009) oder das Fehlen institutioneller Analysen (Hodgson, 2009) als das Grundübel angesehen hat, betrachtet das auch jetzt als Angelpunkt der Neuorientierung. Nur selten wird ein Ausweg vorgeschlagen, auf dem der Proponent nicht schon selbst aktiv war. Das ist aus biografischer Sicht verständlich, raubt den Empfehlungen aber ein wenig das überraschende Moment.

Zweitens kann man die Vorschläge danach unterscheiden, als wie schwerwiegend sie die Abweichungen einschätzen und wie weit man dementsprechend auf dem als Irrweg erkannten Zustieg zurückklettern soll. Die Vertreter der RAMA sehen keinen grundsätzlichen Revisionsbedarf, und sie sehen die dringlichste Aufgabe in der Integration von Finanzmarktinstitutionen in die neueste Modellkollektion. In ähnlicher Weise kann auch der Aufruf verstanden werden, die Ergebnisse der Verhaltensökonomie stärker in die Ausgestaltung einzubeziehen (Akerlof und Shiller, 2009). Andere empfehlen eine Rückbesinnung auf die Modelle der 70er-Jahre (Gordon, 2009) oder gleich auf die Schriften von Keynes (Krugman, 2009; Skidelsky, 2009) oder Hayek (Frydman und Goldberg, 2009). Nach dieser Lesart sollte auch in der Ausbildung ein stärkeres Gewicht auf wirtschaftshistorische und dogmengeschichtliche Fächer gelegt werden, da sich die Geschichte nur in groben Mustern wiederhole und man nur aus der Beschäftigung mit der Vergangenheit Lehren für die Bewältigung zukünftiger Krisen erlangen könne. Noch radikaler sind hier die bereits erwähnten Rufe nach einem methodologischen Neubeginn, bei dem der am Vorbild der klassischen Physik geschulten Modellrahmen durch Methoden der statistischen Mechanik, der Netzwerk- und Komplexitätsanalyse und durch Simulationsverfahren abgelöst werden soll (Colander et al., 2008).

Wenn man im Stapel der Beiträge nach einer einigenden Auffassung sucht, dann ist dies vielleicht die Erkenntnis, dass angewandte Wirtschaftspolitik – die Übersetzung der theoretischen Forschung in angemessene Maßnahmen – eine diffizile Aufgabe ist, die als eigene Subdisziplin der Wirtschaftswissenschaften zu betrachten und gleichberechtigt neben die positiven und normativen Analysen zu stellen ist. John Neville Keynes, der Vater von John Maynard Keynes, hat dafür 1891 den Begriff der „Art of Economics“ geprägt. In den letzten Jahrzehnten wurde die „verlorene Kunst der Ökonomie“ schon öfters beklagt, und die globale Finanzkrise hat diese Sorge wieder zu einem allgemeinen Gesprächstopos gemacht. Es bleibt abzuwarten, ob mit der Abschwächung der Krise auch diese Innenschau rasch wieder zu Ende geht oder ob sie in künftigen Entwicklungen merkbare Spuren hinterlassen wird.

Literatur:

Akerlof, George A. and Robert J. Shiller (2009), Animal Spirits: How Human Psychology Drives the Economy, and Why It Matters for Global Capitalism, Princeton University Press, 2009.

Besley, Tim und Peter Hennessy (2009), Letter to the Queen, 22. Juli 2009.

Buiter, Willem (2009), „The unfortunate uselessness of most ‚state of the art‘ academic monetary economics“, VoxEU.org, 6. März 2009.

Cochrane, John H. (2009), „How did Paul Krugman get it so Wrong?“, Manuskript, 16. September 2009.

Colander, David et al. (2008), „The Financial Crisis and the Systemic Failure of Academic Economics“, Manuskript, Dahlem Workshop, 2008.

Colander, David (2009), Testimony submitted to the Congress of the United States for the Hearing: „The Risks of Financial Modeling: VaR and the Economic Meltdown.“, 10. 9. 2009.

De Grauwe, Paul (2009), „Economics is in crisis: it is time for a profound revamp“, Financial Times, Thursday, 21. Juli 2009.

Eichengreen, Barry (2009), „The Last Temptation of Risk“, The National Interest, 30. April 2009.

Economist (2009), „What went wrong with economics“, 16. Juli 2009.

Frydman, Roman und Michael D. Goldberg (2009), „An economics of magical thinking“, Financial Times/Economistsforum, 23. September 2009.

Gordon, Robert J. (2009), „Is Modern Macro or 1978-era Macro More Relevant to the Understanding of the Current Economic Crisis?“, Manuskript, Northwestern University, August 2009.

Hodgson, Geoffrey M. (2009), „The great crash of 2008 and the reform of economics“, Cambridge Journal of Economics (noch nicht erschienen).

Kocherlakota, Narayana (2009), „Some Thoughts on the State of Macro“, Manuskript, August 2009.

Krugman, Paul (2009), „How Did Economists Get It So Wrong?“, New York Times Magazine, 2. 9. 2009.

Leijonhufvud, Axel (2009). „Out of the corridoor: Keynes and the crisis“, Cambridge Journal of Economics, vol. 33, 741–57.

Skidelsky, Robert (2009), „How to rebuild a shamed subject“, Financial Times, 6. August 2009.

Spaventa, Luigi (2009), „Economists and economics: What does the crisis tell us?“, CEPR Policy Insight No. 38, August 2009.

Saint-Paul, Gilles (2009), „A ‚modest‘ intellectual discipline“, VoxEU.org, 19. September 2009.

Storbeck, Olaf (2009), „Der Kölner Emeriti-Aufstand“, Handelsblatt, 18 Februar 2009.

Taleb, Nassim Nicholas (2007), The Black Swan: The Impact of the Highly Improbable, Random House.

1 Das Kernstück dieser Synthese sind die sogenannten DSGE (Dynamic Stochastic General Equilibrium) Modelle. Auf diese kann hier nicht im Einzelnen eingegangen werden. Es ist aber bezeichnend, dass es bei den Debatten um die Sinnhaftigkeit der modernen ökonomischen Forschung auch – wie stets bei innerwissenschaftlichen Auseinandersetzungen – um für Außenstehende obskure Details dieser Konstrukte geht: um Log-linearisierung, Transversalitätsbedingungen etc. (siehe dazu etwa Buiter, 2009).

2 „Respectable economists would of course warn that these propositions depended on a large number of stringent conditions unlikely to hold in real life. Sometimes, however, this caution was lost in the process of translating rigorous research into a product for immediate consumption. More generally, few objected to the vulgate version of their doctrines requested by the congregation to which they preached, which included private sector agents as well as regulators.“ (Spaventa, 2009).

3 „In my view the problem is not the models; the problem is the way economic models are used. All too often models are used in lieu of educated common sense, when in fact models should be used as an aid to educated common sense. When models replace common sense, they are a hindrance rather than a help.“ (Colander, 2009).

4 „The problem was a partial and blinkered reading of that literature. The consumers of economic theory, not surprisingly, tended to pick and choose those elements of that rich literature that best supported their self-serving actions. Equally reprehensibly, the producers of that theory, benefiting in ways both pecuniary and psychic, showed disturbingly little tendency to object. It is in this light that we must understand how it was that the vast majority of the economics profession remained so blissfully silent and indeed unaware of the risk of financial disaster.“ (Eichengreen, 2009).

5 Weitaus deftiger wurde die RAMA von Buiter („a costly waste of time“) und Krugman („spectacularly useless at best, and positively harmful at worst“) attackiert. Positiver sehen das Saint-Paul (2009) und Kocherlakota (2009).

Markus Knell studierte Philosophie, Soziologie und Ökonomie an der Universität Wien, dem Institut für Höhere Studien (Wien) und der University of California (San Diego). Er war als Assistent an der Universität Zürich tätig und arbeitet heute als Wirtschaftswissenschaftler in Wien. Er ist Autor zahlreicher Publikationen in internationalen Fachzeitschriften im Bereich der makroökonomischen Forschung.

Quelle: Recherche 3/2009

Online seit: 30. September 2019

Die Online-Version unterscheidet sich geringfügig von der Print-Variante, Zeichensetzung und Tippfehler wurden korrigiert.