Você está na página 1de 102

1

Universit del Sannio


DEMM

Emiliano Brancaccio

APPUNTI DI
POLITICA ECONOMICA

PRIMA VERSIONE

Anno 2017
2

Indice

1. OBIETTIVI E STRUMENTI DELLA POLITICA ECONOMICA

2. POLITICA ECONOMICA DEL LAVORO

3. POLITICHE STRUTTURALI

4. GLI INTERPRETI DELLA POLITICA ECONOMICA

5. LA POLITICA ECONOMICA DEI NOBEL

Tali Appunti vanno studiati assieme al testo Anti-Blanchard (terza edizione, Franco
Angeli, Milano 2017).

Alcune parti di questi Appunti rappresentano elaborazioni di studenti tratte da


sbobinamenti di lezioni. E possibile dunque che essi contengano alcuni refusi e
imprecisioni.
3

OBIETTIVI E STRUMENTI DELLA


POLITICA ECONOMICA

1.1. Una definizione di politica economica

Leconomista neoclassico Lionel Robbins defin la politica economica come il corpo


dei principi dellazione o dellinazione del governo rispetto allattivit economica
(Robbins 1935). Tra gli esponenti delle scuole di pensiero critico, Federic Caff ha
proposto la seguente definizione di politica economica: la disciplina che cerca le regole
di condotta tendenti a influire sui fenomeni economici in vista di orientarli in un senso
desiderato (1978). Si tratta di definizioni molto generali, che in astratto possono valere
per diversi tipi di sistemi economici, siano essi capitalistici oppure anche pianificati.

Ma quali sono le differenze tra economia politica e politica economica? La moderna


disciplina delleconomia politica, come noto, sorge alla fine del Diciottesimo secolo
con le riflessioni di Adam Smith sullavvento del capitalismo concorrenziale. In questo
senso, leconomia politica esamina in primo luogo il funzionamento impersonale del
sistema capitalistico quando lasciato alle forze del mercato e non sottoposto a
interventi delle autorit di governo. La politica economica, invece, pu esser concepita
come disciplina autonoma nel senso che essa indaga principalmente sulle cause e sui
possibili effetti dellintervento delle autorit di governo sul funzionamento stesso del
sistema. Naturalmente questa una partizione semplificata: a ben guardare, fin dalle sue
origini leconomia politica non ha mai potuto fare a meno di occuparsi anche
dellazione del governo, cos come la politica economica non pu mai prescindere dallo
studio dei meccanismi di mercato. Economia politica e politica economica sono quindi
discipline strettamente intrecciate: le differenze tra di esse sono sfumate e rappresentano
pi che altro delle convenzioni. Un possibile criterio di distinzione, in tal senso, pu
consistere nel dichiarare che leconomia politica elabora soprattutto analisi di tipo
positivo (o descrittivo), nel senso che suggerisce una o pi interpretazioni del modo in
cui il sistema economico funziona. La politica economica, invece, orientata
principalmente in senso normativo (o prescrittivo), dal momento che aiuta a
individuare gli strumenti necessari a modificare il funzionamento del sistema per
orientarlo verso obiettivi determinati.
4

1.2 Controversie sulla politica economica: alcuni esempi

Al pari delleconomia politica, anche la politica economica oggetto di studio di


diverse scuole di pensiero, le quali suggeriscono diverse interpretazioni del
funzionamento dei sistemi economici e degli effetti su di essi delle politiche attuate
dalle autorit di governo. In questa sede, prendendo spunto dal volume Anti-
Blanchard, adotteremo un approccio comparato tra quelle che semplificando al
massimo possono esser considerate due diverse visioni della politica economica: la
corrente principale di ispirazione neoclassica, detta mainstream, di cui Olivier
Blanchard uno dei massimi esponenti contemporanei, e una visione alternativa che
trae origine dai contributi di vari studiosi appartenenti a diverse epoche, tra cui Marx,
Keynes, Sraffa, Leontief, Minsky, Simon e altri.

Queste diverse visioni danno luogo a unampia serie di dibattiti e di controversie sul
ruolo da attribuire alla politica economica. Lesistenza di dispute teoriche, del resto, non
una prerogativa esclusiva delle scienze economiche. In tutti i campi del sapere, dalla
fisica alla biologia, specialmente in alcune fasi evolutive della ricerca si assiste ad
accesi confronti fra i ricercatori in merito alla scelta della teoria maggiormente in grado
di descrivere la realt oggetto di studio. In questi ambiti della scienza lorientamento
della ricerca viene solitamente guidato dalla capacit o meno delle diverse teorie di
superare il banco di prova della verifica empirica, ossia della loro rispondenza o
meno di ciascuna teoria ai dati esistenti. Lo stesso dovrebbe valere per gli studi
economici: se una teoria stabilisce che la spesa pubblica non ha alcun effetto
sullandamento della produzione e delloccupazione, mentre unaltra teoria ritiene che
leffetto esista e sia rilevante, toccher in primo luogo alle verifiche empiriche stabilire
quale delle due impostazioni debba ritenersi pi robusta alla prova dei dati. Ovviamente,
quello del rapporto fra teoria e dati un argomento delicato, complesso e controverso,
che alla base dellepistemologia, una disciplina che si occupa di metodo scientifico.
Tale complessit investe tutte le scienze, non solo leconomia. In genere si afferma che
nel campo delleconomia politica, e ancor pi della politica economica, il rapporto fra la
teoria e la prova dei dati reso ancor pi controverso per due motivi, uno tecnico e
laltro ideologico: in primo luogo, la maggior parte dei fenomeni non replicabile in
laboratorio; in secondo luogo, i temi affrontati investono enormi interessi economici e
sociali che possono condizionare lavanzamento della ricerca. Ma a ben guardare questi
due problemi toccano in misura pi o meno significativa quasi tutti i campi della ricerca
scientifica. Lesistenza di tali difficolt rende lattivit di ricerca epistemologicamente
pi difficile, ma non dovrebbe mai pregiudicarla. Un aggiornato metodo scientifico
dovrebbe dunque restare il banco di prova delle teorie in tutti i campi del sapere, inclusa
la politica economica.

Tra i numerosi esempi di disputa tra gli economisti, vi quello relativo alla validit
della teoria quantitativa della moneta e delle sue varianti moderne. Come noto, la
teoria quantitativa venne ideata da Irving Fisher nel 1911 e le conclusioni sono oggi
sostanzialmente riproposte nelle versioni standard del modello mainstream di domanda
e offerta aggregata. Questa teoria prevede che, nel lungo periodo, ogni eventuale
variazione della quantit di moneta emessa dalla banca centrale implichi solo una
variazione proporzionale del livello generale dei prezzi, e non abbia invece ripercussioni
durature sulla produzione e sulloccupazione. Pi in generale, la teoria mira a stabilire
5

che la politica della banca centrale pu controllare landamento di lungo periodo


dellinflazione. Leffetto di lungo periodo della politica monetaria, dunque, riguarda
solo variabili monetarie come il livello dei prezzi, mentre non tocca le variabili reali
come la produzione. Si parla in tal senso di neutralit della moneta sugli
andamenti di lungo periodo delle variabili reali.

Definendo con M la quantit di moneta emessa dalla banca centrale, con V la velocit di
circolazione di ciascuna unit di moneta emessa, con P il livello generale dei prezzi e
con Y il livello del PIL, la teoria quantitativa corrisponde alla seguente relazione:

PY = MV

Questa pu esser considerata una identit contabile piuttosto ovvia, nel senso che a date
condizioni si pu ritenere che il valore delle merci prodotte e scambiate in un anno
corrisponda necessariamente al valore della contropartita in moneta scambiata nello
stesso anno per effettuare gli acquisti di quelle merci. La mera relazione contabile
diventa per una teoria economica se si fanno le seguenti ipotesi sullandamento delle
variabili in gioco. Supponendo che V sia un parametro determinato dalle abitudini di
pagamento della popolazione e che la produzione Y sia in equilibrio naturale,
possiamo affermare che per ogni dato livello di M deciso dalla banca centrale esister
un solo livello di P di equilibrio. Ogni variazione di M dovrebbe quindi influire solo
su P:

P = MV/Y

La stessa relazione pu essere poi espressa non in termini di livelli ma in termini di tassi
di variazione. Consideriamo le variabili in questione in due anni consecutivi, indicati
rispettivamente con i pedici zero e uno. Possiamo riscrivere lequazione della teoria
quantitativa in questi termini:

1 1 1 1
1 1 0 0
= 1 da cui =
0 0 0 0 1
0 0

Ora, se prendiamo una qualsiasi variabile generica X e definiamo con x = (X1 X0)/X0
il suo tasso di variazione percentuale nel tempo, facile dimostrare che (X1/X0) = 1 + x.
Applicando questo risultato a P, M, V, Y, tramite semplici passaggi lequazione della
teoria quantitativa pu essere riformulata nei seguenti termini:

(1 + )(1 + )
1+ =
(1 + )

Dove p il tasso dinflazione, y il tasso di crescita del PIL, m la crescita della massa
monetaria e v indica le eventuali variazioni nella velocit di circolazione della moneta.
Da ci, moltiplicando e riarrangiando otteniamo:
6

= (1 + + + 1 )/(1 + )

Se ammettiamo che i tassi annui di variazione delle variabili esaminate siano


solitamente molto piccoli, possiamo ritenere in via di approssimazione che mv 0 e che
1 + y 1, da cui:

(1) +

Se per ipotesi si assume che Y sia costante al suo equilibrio naturale e che pure V sia
costante, allora y = 0 e v = 0, per cui p m. In altre parole, ogni variazione della
quantit di moneta determina solo una variazione proporzionale dellinflazione. Pi in
generale, per ogni dato tasso di variazione v della velocit di circolazione della moneta,
e per ogni dato tasso di crescita y della produzione naturale, si pu affermare che se la
banca centrale controlla la variazione m della crescita monetaria allora dovrebbe
controllare anche il tasso dinflazione p.

Nei primi anni della sua esistenza la Banca Centrale Europea (BCE) ha sostenuto di
voler controllare linflazione basandosi proprio sulla teoria quantitativa della
moneta. Come noto, il Trattato dellUnione europea attribuisce alla BCE il compito di
tenere il tasso dinflazione stabile ed entro il limite massimo del 2% annuo. In questo
senso, ritenendo che il tasso di crescita naturale del PIL delleurozona fosse del 2,5%
(y = 0,025) e stimando che a causa di varie innovazioni finanziarie la velocit di
circolazione della moneta diminuisse di circa lo 0,5% allanno (v = 0,005), la BCE ha
stabilito come obiettivo dinflazione un tasso dinflazione annuo dell1,5% (p = 0,015),
e dallequazione (1) ha determinato un tasso di crescita della moneta del 4,5%
necessario per perseguire quellobiettivo:

0,015 0,005 0,025 da cui 0,045

In realt, come si evince dal grafico di Fig. 1 riferito ai primi quindici anni di vita
dellEurozona, il legame tra la crescita monetaria e linflazione non cos forte n
cos stabile come la teoria quantitativa indurrebbe a credere. Prendendo come
riferimento laggregato monetario M3 costituito da monete metalliche, banconote,
depositi a vista e titoli liquidi di scadenza inferiore a un anno, si pu notare che gli
andamenti della crescita monetaria m e dellinflazione p risultano piuttosto diversi: tra il
1999 e il 2007 si registrano significativi mutamenti di m ai quali per non
corrispondono analoghe variazioni di p, mentre tra il 2010 e il 2011 si registrano
addirittura andamenti divergenti tra le due grandezze.

Fig. 1 Crescita della moneta e inflazione nellEurozona, anni 1999-2014


7

Fonte: Benassy-Quer et al., Politica economica, Il Mulino 2014

La divergenza tra crescita della moneta e inflazione risultata ancor pi accentuata


negli ultimi anni, quando la BCE ha avviato una intensa politica di espansione
monetaria durante la quale, per, linflazione ha continuato a diminuire fino a diventare
addirittura negativa.

Per egli esponenti della visione alternativa di politica economica queste evidenze stanno
a indicare che la teoria quantitativa errata, e che pi in generale le azioni della
banca centrale sulla quantit di moneta, cos come sui tassi dinteresse, non sono in
grado di controllare linflazione. Anche tra gli esponenti del mainstream sorgono oggi
vari dubbi circa lidea che landamento dei prezzi possa esser governato dalla sola
politica monetaria. Nellambito dellapproccio dominante, tuttavia, sono tuttora molti i
seguaci della teoria quantitativa o di sue varianti pi recenti, le quali insistono sullidea
che la banca centrale possa tenere sotto controllo il tasso dinflazione.

Per approfondimenti, si rinvia al volume Anti-Blanchard, in particolare ai paragrafi


sul confronto algebrico tra i modelli e sulle regole alternative di politica monetaria. Si
veda anche larticolo riportato nel prossimo box.

Econopoly - Il Sole 24 Ore, 16 maggio 2016


La BCE pu controllare le insolvenze, non linflazione
di Emiliano Brancaccio e Thomas Fazi

Le politiche monetarie non convenzionali non stanno dando i risultati sperati. Il quantitative easing, cos
come le manovre tese a portare i tassi dinteresse nominali verso lo zero o addirittura a livelli negativi, non
appaiono in grado di sospingere linflazione e la crescita del PIL verso il loro sentiero normale, n
sembrano capaci di allontanare le principali economie avanzate dal precipizio della deflazione. LUnione
monetaria europea in questo senso un caso esemplare. La BCE ha abbattuto il costo del denaro e ha
accresciuto la liquidit in circolazione in una misura impensabile prima dellinizio della crisi. Ci nonostante,
linflazione delleurozona addirittura tornata in territorio negativo e non vi certezza sulla possibilit che
arrivi almeno ad azzerarsi alla fine dellanno.
8

In questo scenario, da pi parti hanno iniziato a diffondersi dubbi sul modo convenzionale in cui viene
interpretato il ruolo dei banchieri centrali. Alcuni commentatori sostengono che dopo la grande recessione
iniziata nel 2008 le autorit monetarie dovrebbero ampliare ulteriormente gli strumenti dintervento e
soprattutto dovrebbero smetterla di perseguire di obiettivi rigidi dinflazione per puntare invece verso target
pi flessibili, come ad esempio una data crescita del reddito nominale.

Fuori e dentro le istituzioni, i segnali di interesse verso tali proposte non mancano. A ben guardare, tuttavia,
questo modo di affrontare il problema della inefficacia delle politiche monetarie presenta un grave limite. Sia
che si adottino i vecchi obiettivi dinflazione sia che si scelgano target pi flessibili, le ricette suggerite
continuano a basarsi sul vecchio assunto monetarista secondo cui le banche centrali sarebbero in grado, in un
modo o nellaltro, di controllare la spesa aggregata. Non viene neanche presa in considerazione la possibilit
che gli strumenti delle banche centrali, pi o meno convenzionali, non siano in grado di controllare la spesa
aggregata e quindi, in generale, non consentano di perseguire nessuno degli obiettivi che si prefiggono, che si
tratti di inflazione o anche di reddito nominale.
Un articolo di prossima pubblicazione sul Journal of Post-Keynesian Economics fornisce nuovi elementi a
sostegno della tesi secondo cui le banche centrali, in generale, non sono in grado di governare la spesa
aggregata (Brancaccio, Fontana, Lopreite, Realfonzo 2015). Utilizzando un modello VAR con dati trimestrali
per larea euro tra il 1999 e il 2013, gli autori hanno indagato sullesistenza o meno di relazioni statistiche tra
landamento del tasso dinteresse di mercato o dei tassi di rifinanziamento della BCE da un lato, e la dinamica
del reddito nominale intorno al suo trend di lungo periodo dallaltro.
Lanalisi empirica ha mostrato che gli scostamenti del reddito nominale dal trend non sono
influenzati dai movimenti dei tassi di interesse: in particolare, la riduzione del costo del denaro non sembra in
alcun modo favorire un recupero del reddito nominale verso il suo andamento tendenziale di lungo periodo.
A quanto pare, dunque, governando i tassi dinteresse il banchiere centrale non in grado di controllare la
spesa aggregata e quindi non pu incidere efficacemente sullandamento della produzione, delloccupazione,
del reddito nominale, e tantomeno dellinflazione. Levidenza, in effetti, contrasta con tutte le interpretazioni
convenzionali delloperato delle banche centrali, dalla famigerata regola di Taylor alle pi recenti regole
fondate su un target di reddito nominale.
Lanalisi empirica ha evidenziato pure che gli scostamenti del reddito nominale effettivo dal suo
trend di lungo periodo influenzano landamento del tasso dinteresse: per esempio, a una crescita del reddito
pi blanda rispetto al trend corrisponde una riduzione dei tassi dinteresse, e viceversa. Questo risultato
sembra supportare uninterpretazione del ruolo della banca centrale le cui origini risalgono al celebre Lombard
Street di Walter Bagehot, e che stata poi ripresa e sviluppata da vari studiosi di orientamento critico. Questo
filone di ricerca alternativo suggerisce che il ruolo effettivo del banchiere centrale pi complesso di quello
che gli viene solitamente attribuito: esso consiste nel regolare la solvibilit delle unit economiche e pi in
generale la stabilit finanziaria del sistema. Lautorit monetaria, cio, muoverebbe i tassi dinteresse nella
stessa direzione del reddito nominale non certo per tentare di governare questultimo, che fuori dalla sua
portata, ma allo scopo non meno rilevante di controllare la differenza tra reddito e onere del debito, in modo
da tenere a bada la dinamica dei fallimenti, delle bancarotte e delle liquidazioni del capitale.
Secondo questa visione, il banchiere centrale agisce come regolatore di un conflitto tra capitali
solvibili, capaci di accumulare profitti superiori al servizio del debito, e capitali in perdita e dunque
potenzialmente insolventi. Tale conflitto inoltre tanto pi violento quanto pi restrittiva sia la politica fiscale
del governo, che riduce i redditi nominali medi e colloca quindi un numero maggiore di unit economiche
sotto la linea dellinsolvenza. Dati gli orientamenti delle politiche di bilancio, dunque, il modo in cui la banca
centrale manovra il tasso dinteresse rispetto al reddito nominale medio influisce sul ritmo delle insolvenze e
sulla connessa centralizzazione dei capitali: vale a dire, sulle liquidazioni dei capitali pi deboli e sul loro
progressivo assorbimento ad opera dei capitali pi forti (Brancaccio e Fontana 2015).
Questa diversa interpretazione della politica monetaria consente di guardare sotto unaltra luce anche
lattuale scenario delleurozona. Con politiche di bilancio pubblico votate allausterity, in vari paesi la crescita
nominale del reddito resta troppo bassa, situandosi spesso al di sotto dei tassi dinteresse di mercato. Ci
significa che lattuale politica monetaria della BCE non in grado di frenare la tendenza europea alla
centralizzazione, ossia alle liquidazioni dei capitali situati nelle aree periferiche e alla loro eventuale
acquisizione da parte di capitali presenti in Germania e nelle zone caratterizzate da migliori andamenti
macroeconomici. Questa tendenza ben documentata dalla drammatica divaricazione tra i tassi di insolvenza
delle imprese europee (Creditreform 2016). Tra il 2007 ed il 2015 la Germania ha segnato una riduzione delle
insolvenze delle imprese a un ritmo medio del 3 percento allanno. Al contrario, nello stesso periodo Spagna,
Portogallo e Italia hanno fatto registrare una violenta crescita delle insolvenze, con incrementi medi
rispettivamente del 37, del 21 e del 16 percento allanno. Negli ultimi tempi in Spagna si assistito a un calo
9

dei fallimenti, che tuttavia non consente nemmeno di avvicinarsi alla situazione ante-crisi. In Italia il quadro
non migliora, mentre in Portogallo nellultimo anno si registra addirittura un ulteriore aggravamento delle
bancarotte. Si tratta di una forbice senza precedenti, che oltretutto si ripercuote sugli andamenti dei bilanci
delle banche dei diversi paesi dellUnione, creando i presupposti per nuove, asimmetriche crisi bancarie.
E dunque illusorio pensare che la BCE, da sola, sia in grado di contrastare la deflazione. La sua
politica monetaria, piuttosto, influisce sulle insolvenze e sulle liquidazioni dei capitali, che tuttora colpiscono
in modo asimmetrico i paesi membri dellUnione. Anzich attardarsi su target dinflazione impossibili, su
questultimo problema che il dibattito di politica monetaria dovrebbe maggiormente concentrarsi.

Bibliografia

Brancaccio, E., Fontana, G. (2015). Solvency rule and capital centralisation in a monetary union, Cambridge Journal of Economics,
advance access online, 29 October.

Brancaccio, E., Fontana, G., Lopreite, M., Realfonzo, R. (2015). Monetary Policy Rules and Directions of Causality: A test for the Euro
Area, Journal of Post Keynesian Economics, 38 (4).

Creditreform (2016), Unternehmensinsolvenzen in Europa, Jahr 15/16.

Tra gli esponenti delle diverse scuole di pensiero economico, tuttavia, possono anche
verificarsi episodi di convergenza nella interpretazione di determinati fenomeni. Nel
caso della crisi dellEurozona e dellUnione europea, iniziata nel 2010 e ancora non
superata, la Lettera degli economisti pubblicata il 10 giugno 2010 sul Sole 24 Ore e il
successivo Monito degli economisti pubblicato il 23 settembre 2013 sul Financial
Times, rappresentano esempi interessanti. Questi documenti, infatti, sono stati
sottoscritti da studiosi che, sebbene appartenenti a diversi filoni di ricerca, hanno scelto
di condividere una particolare interpretazione critica delle politiche economiche che le
autorit europee e i governi dei paesi membri dellUnione hanno adottato per
fronteggiare la crisi.
10

Financial Times, 23 settembre 2013


The economists warning
Trad. it. su www.theeconomistswarning.com

1.3 I modelli della politica economica

Come leconomia politica, la politica economica si fonda sulla costruzione di modelli


teorici, vale a dire schemi matematici tesi a rappresentare le caratteristiche essenziali
della realt oggetto dindagine. Un modello solitamente corrisponde a unequazione o a
un sistema di equazioni. I legami tra variabili descritti da tali equazioni possono
esprimere relazioni contabili, funzioni tecnico-produttive, funzioni di
comportamento oppure condizioni di equilibrio. In ciascuna equazione i termini
considerati relativamente pi stabili nel tempo vengono solitamente definiti parametri,
mentre le grandezze soggette a cambiamenti pi frequenti sono dette variabili. Tra di
esse ci sono anche le variabili di politica economica, ossia quelle che sono frutto di
decisione delle autorit di governo. Le variabili possono essere esogene, ossia
considerate date dallesterno dellanalisi, oppure possono essere endogene, ossia le
incognite da determinare allinterno del modello.
11

Compito delleconomista definire le caratteristiche delle relazioni del modello,


scegliere le esogene e le endogene e poi sottoporre il modello teorico a verifica
empirica, tramite una stima dei parametri e un confronto tra i risultati della teoria e i
dati statistici disponibili. A seconda della qualit dei risultati dellindagine empirica, il
modello potr essere almeno temporaneamente accettato, oppure potr essere emendato,
oppure ancora rigettato.

Un modello pu essere espresso in forma strutturale se esso descrive esplicitamente le


relazioni che intercorrono tra tutte le variabili esaminate. Oppure il modello pu essere
risolto matematicamente ed espresso in forma ridotta, che consiste nel rappresentare le
variabili endogene solo in funzione delle variabili esogene e dei parametri dati.

Per esempio, se prendiamo una versione semplice del modello keynesiano di


determinazione della produzione di equilibrio, la sua forma strutturale pu esser data
da:

1) = 0 + 1 ( )
2) = 0
3) = 0
4) = 0 +
5) = + +

Le equazioni (1) e (2) sono equazioni di comportamento aggregato degli operatori


privati, relative alle scelte di consumo delle famiglie e di investimento delle imprese. Le
equazioni (3) e (4) descrivono il comportamento delle autorit di governo, in merito alla
spesa pubblica e alla tassazione. La (5) una condizione di equilibrio macroeconomico
tra la produzione e la domanda aggregata, questultima costituita dalla somma di
consumi, investimenti e spesa pubblica. Il termine c1 un parametro, le variabili C0, I0
sono esogene determinate dal comportamento di famiglie e imprese, le variabili G0, t, T0
sono esogene determinate dalle decisioni delle autorit, le variabili C, Y, sono
endogene. Rispetto al modello standard del manuale di macroeconomia di Blanchard,
lunica differenza risiede nel fatto che qui la funzione delle imposte resa pi realistica,
visto che contiene non solo la solita componente esogena ma anche una componente
dipendente dal reddito.

La forma strutturale del modello utile per comprendere la concezione che esso
suggerisce in merito al funzionamento del sistema economico. Tuttavia, per calcolare le
endogene utile passare alla forma ridotta. A tale scopo possiamo esprimere le
endogene Y, C in funzione delle sole esogene. Sostituendo e riarrangiando, otteniamo il
seguente sistema (1) di due equazioni in due incognite Y e C:

1
= ( + 0 + 0 1 0 )
1 1 (1 ) 0
(1 )
1 (1 )(0 + 0 + 0 1 0 )
= 0 1 0 +
1 1 (1 )
12

La forma ridotta, come si pu notare, per lappunto riduce il numero di equazioni al


numero delle endogene esistenti nel modello, e consente di determinare subito tali
variabili endogene dal momento che le esprime solo in funzione delle esogene e dei
parametri, ossia di termini considerati gi noti.

ESEMPIO: assumendo che il parametro del sistema economico sia c1 = 0,8, che le
variabili esogene di comportamento degli agenti privati siano c0 = 50, I0 = 150, e che le
variabili esogene di politica economica siano G0 = 120, , t = 0,1, T0 = 100, verifica che
le due variabili endogene corrispondono a Y = 857,14 e C = 587,14.

In generale, per ogni generico modello di politica economica costituito da k equazioni,


esister un vettore y di m variabili endogene e un vettore x di n variabili esogene.
Trasformando il modello in forma ridotta, si potranno ottenere m equazioni ciascuna
corrispondente alle endogene da calcolare, tutte espresse in funzione delle sole esogene:

1 = 1 (1 , 2 , , )
2 = 2 (1 , 2 , , )
.. . .
= (1 , 2 , , )

Ovviamente, il modello potr essere pi agevolmente analizzato se le equazioni in


forma ridotta sono lineari. Per questo, anche quando le equazioni non sono lineari, si
tende talvolta a considerare delle procedure di approssimazione lineare (un esempio
la regola di Taylor per lapprossimazione di primo ordine). Lo scopo di pervenire a
forme funzionali di questo tipo:

1 = 11 1 + 12 2 + + 1
. . . .
= 1 1 + 2 2 + +

dove i termini aij rappresentano i parametri del modello. Questo tipo di sistemi potr
essere espresso anche in forma di algebra matriciale, con y vettore (m x 1) delle
endogene, x vettore (n x 1) delle esogene e A matrice (m x n) dei coefficienti:

y = Ax

1.4 Obiettivi e strumenti

Tra le variabili di un modello di politica economica esistono anche quelle che assolvono
al ruolo di obiettivi politici e quelle che fungono da strumenti per il perseguimento
degli obiettivi.

Gli obiettivi di politica economica si dicono fissi se consistono nel raggiungimento di


un valore puntuale della variabile esaminata, e si dicono flessibili se richiedono che
13

anzich raggiungere un valore specifico la variabile in questione si trovi al di sotto o al


di sopra di una data soglia, oppure sia massimizzata o minimizzata rispetto a un dato
vincolo. Ad esempio, lobiettivo di raggiungere il pareggio di bilancia commerciale
(NX = 0) fisso, mentre lobiettivo di situare linflazione entro la soglia del 2% (p
0,02) flessibile.

Gli strumenti indicano quelle variabili che vengono usate dai policymakers come leve
per raggiungere un dato obiettivo di politica economica. Ovviamente uno strumento
tale se risulta effettivamente controllabile dallautorit di governo. Consideriamo ad
esempio il caso di una banca centrale che intenda controllare il tasso dinteresse interno
per perseguire determinati obiettivi di occupazione e sostenibilit del debito. In una
situazione di perfetta mobilit internazionale dei capitali i possessori di capitali
cercano di spostare le loro ricchezze in quei paesi che garantiscono i maggiori vantaggi,
e in particolare assicurano tassi dinteresse pi elevati rispetto agli altri. Pertanto, i
movimenti di capitale si arrestano solo nel momento in cui i titoli dei vari paesi offrono
il medesimo rendimento, al netto delle variazioni attese del tasso di cambio. La
condizione sotto la quale gli spostamenti di capitale si interrompono, e che mette
dunque in equilibrio i mercati, detta condizione di arbitraggio o condizione di parit
scoperta dei tassi dinteresse. Nel manuale di macroeconomia di Blanchard tale
condizione data da:

Et
1 it (1 it* )
Ete1

dove la parte sinistra indica il rendimento i che si ottiene acquistando titoli nazionali,
mentre la parte destra indica il rendimento i* derivante dallacquisto di titoli esteri.
Questo secondo rendimento, si badi, calcolato includendo le eventuali variazioni del
tasso di cambio nominale E. Finch la parte sinistra risulta inferiore alla parte destra
dellequazione, allora conviene spostare i capitali allestero per acquistare titoli
stranieri, che rendono di pi. Viceversa, nel caso in cui la parte sinistra sia maggiore,
conviene tenere i capitali in patria. Si comprende pertanto che se la banca centrale vuole
evitare fughe di capitali allestero, dovr fissare un tasso dinteresse interno in grado di
rispettare la condizione di parit scoperta, dati il tasso prevalente allestero e il tasso di
cambio atteso. Il risultato che il tasso dinteresse nazionale i non si trova sotto il
pieno controllo della banca centrale, e quindi difficilmente potr esser considerato
uno strumento di politica economica. Una sezione del volume Anti-Blanchard
dedicata ai criteri tramite i quali si pu nuovamente rendere il tasso dinteresse uno
strumento controllabile dalla banca centrale, tramite ad esempio tassazioni o controlli
amministrativi sui movimenti internazionali di capitale.

Una variabile, per esser considerata uno strumento, deve anche avere un impatto sulle
variabili obiettivo del modello. Riprendiamo ad esempio il modello keynesiano (1) di
determinazione della produzione di equilibrio. Se lobiettivo quello di conseguire un
certo livello di produzione Y, la spesa pubblica G potr esser considerata un valido
strumento di policy solo se la derivata della produzione rispetto alla spesa pubblica
dY/dG maggiore di zero. Ossia:
14

1
(6) = >0
1 1 (1 )

una condizione che confermata se c1(1 t) < 1. Questo risultato, tipicamente


keynesiano, viene solitamente associato alla determinazione del livello di equilibrio
della produzione nel breve periodo. Esistono tuttavia modelli che attribuiscono alla
spesa pubblica il ruolo di valido strumento per determinare la produzione anche nel
lungo periodo: basti pensare al modello alternativo descritto nel volume Anti-
Blanchard. Invece, nel medesimo volume, il modello mainstream di domanda e
offerta aggregata propone una equazione di determinazione della produzione di
equilibrio di lungo periodo che esclude completamente la spesa pubblica. Possiamo
dunque affermare che, ai fini della determinazione del livello di equilibrio di lungo
periodo della produzione, la spesa pubblica viene considerata un valido strumento di
policy dai sostenitori dellapproccio alternativo ma non dagli esponenti dellapproccio
mainstream. Lo studente invitato a sincerarsi di questa differenza analizzando le
versioni algebriche dei modelli descritti nel paragrafo 4.1 dellAnti-Blanchard e
calcolando le rispettive derivate dY/dG.

Infine, riprendiamo il modello in forma ridotta descritto alla fine del paragrafo
precedente. Possiamo affermare che quando il modello viene esaminato da un punto di
vista puramente positivo, allora gli obiettivi y sono considerati endogene da determinare
mentre gli strumenti x sono valutati come esogene date, proprio come rappresentato nel
modello del paragrafo precedente. Se per si vuole analizzare il modello da un punto di
vista normativo, allora preferibile ribaltare lanalisi considerando gli obiettivi y come
variabili esogene predeterminate dallautorit politica, e gli strumenti x come variabili
endogene da determinare in funzione degli obiettivi fissati. In pratica, se prima avevamo
equazioni del tipo y = f(x), ora bisogna calcolare le rispettive funzioni inverse e ottenere
x = f-1(y). Si ottiene cos la forma ridotta inversa del modello:

1 = 1 (1 , 2 , , )
2 = 2 (1 , , , )
.. . .
= (1 , 2 , , )

Abbiamo cos n strumenti e altrettante equazioni in funzione di m variabili obiettivo.


Assumendo che il sistema sia lineare o linearizzato, possiamo domandarci in quali casi
esso sia risolvibile matematicamente. Se il sistema risolvibile si dice che il modello di
politica economica controllabile. Da questo punto di vista, date alcune condizioni
matematiche, possiamo distinguere tre casi:

1) Se m = n il sistema esattamente determinato. Dati m obiettivi fissi di politica


economica, esister ununica soluzione per i valori che le n variabili strumento
dovranno assumere al fine di conseguire quegli obiettivi.

2) Se m < n il sistema sottodeterminato. Questa circostanza particolarmente


favorevole per il policymaker. Infatti gli strumenti eccedono gli obiettivi, e quindi
esisteranno infinite soluzioni possibili per conseguire questi ultimi. Il motivo
15

semplice: per esempio, se consideriamo un modello di 1 obiettivo e 2 strumenti,


possibile fissare arbitrariamente il valore di uno dei due strumenti e determinare poi
endogenamente laltro, il che dimostra che le combinazioni possibili per ottenere il dato
obiettivo sono infinite. Si dice in questi casi che il modello caratterizzato da n m
gradi di libert.

3) Se m > n il sistema sovradeterminato. In tal caso gli obiettivi eccedono gli


strumenti, con la conseguenza che non esiste nessuna soluzione in grado di soddisfare
il conseguimento di tutti gli obiettivi. Il modello di politica economica in tal caso non
controllabile, nel senso che gli obiettivi fissi stabiliti non sono tutti raggiungibili:
bisogner abbandonarne alcuni o bisogner eventualmente riformularli in termini pi
flessibili.

Possiamo sintetizzare questi risultati nella cosiddetta regola aurea della politica
economica suggerita dal premio Nobel Jan Timbergen: condizione necessaria
affinch un modello di politica economica a obiettivi fissi sia controllabile, che il
numero degli strumenti sia almeno pari al numero degli obiettivi.

Per approfondire la regola aurea, riprendiamo il semplice modello keynesiano di


determinazione della produzione di equilibrio. Nella formulazione (1-5) il modello in
forma strutturale. In precedenza avevamo trasformato il modello nella versione (1) in
forma ridotta, con gli obiettivi che fungevano da variabili endogene e i vari strumenti
considerati come variabili esogene. Per applicare la regola di Timbergen pu essere
preferibile esprimere il modello con gli obiettivi esogeni e gli strumenti endogeni.
Possiamo dunque ritenere che gli obiettivi Y e C siano stabiliti dalle autorit di governo
e assumano il ruolo di variabili esogene. Pertanto, m = 2. Riguardo agli strumenti di
politica economica, ne abbiamo tre: la spesa pubblica G0, la componente di tassazione
T0 indipendente dal reddito e laliquota t di prelievo fiscale sul reddito. Dunque, n = 3.
Applicando la regola aurea possiamo affermare che il sistema controllabile: esso
infatti sottodeterminato e ammette infinite soluzioni. Possiamo allora attribuire un
valore arbitrario a uno degli strumenti, ad esempio t. I due strumenti G0, T0 diventano
quindi le variabili endogene da determinare. A questo punto possiamo partire dal
modello (1) e scriverlo in forma ridotta inversa, oppure possiamo partire dal modello in
forma strutturale (1-5) e scriverlo in modo da esplicitare le equazioni nei termini dei due
strumenti G0, T0. In entrambi i modi, tramite semplici passaggi giungiamo al seguente
modello, che presenta gli obiettivi come esogeni e gli strumenti come endogeni:

0 = 0
(1)
0
0 = + (1 )
1

Dati i parametri e gli obiettivi esogeni di politica economica, le autorit potranno


determinare i valori degli strumenti che consentono di raggiungere gli obiettivi dati.
16

ESEMPIO: assumendo che il parametro del sistema economico sia c1 = 0,8, che le
variabili esogene di comportamento di famiglie e imprese private siano C0 = 50, I0 =
150, che laliquota dimposta sia t = 0,1 e che gli obiettivi di politica economica siano
variabili esogene fissate a Y = 857,14 e C = 587,14, utilizza il sistema in forma ridotta
inversa (1) per verificare che tali obiettivi esogeni possono essere conseguiti solo se gli
strumenti di politica economica corrispondono a G0 = 120 e T0 = 100.

1.5 Obiettivi flessibili e funzioni di perdita: lindice di malessere di Okun

Abbiamo detto che quando gli obiettivi fissi eccedono gli strumenti il sistema
sovradeterminato e il modello di politica economica non ammette soluzioni. Un modo
per ovviare al problema pu consistere nel ridurre il numero degli obiettivi e nel renderli
flessibili. Per esempio, supponiamo che gli obiettivi di politica economica siano due,
linflazione e la disoccupazione, e che lunico strumento di policy disponibile sia
soltanto la spesa pubblica. In tal caso, per rendere il modello controllabile le autorit
possono ridurre i due obiettivi a uno solo, convogliando linflazione e la disoccupazione
in ununica funzione, detta funzione di perdita (loss function) del policymaker. Un
esempio di funzione di perdita pu essere questo:

= 1 ( )2 + 2 ( )2

dove e u indicano i livelli effettivi di inflazione e disoccupazione, * e u*


rappresentano i livelli delle due variabili che le autorit reputano ottimali, 1 e 2
rappresentano i pesi politici che le autorit attribuiscono alle deviazioni di ciascuna
delle due variabili rispetto ai loro livelli ottimali, e L indica la funzione di perdita delle
autorit. Il sistema a questo punto determinato, dal momento che lunico strumento
della spesa pubblica deve puntare allunico obiettivo di minimizzare la funzione di
perdita. Si noti che in tal caso lobiettivo non pi fisso ma flessibile: non bisogna
raggiungere un valore puntuale di L ma bisogna minimizzare il suo livello.

Un celebre esempio di funzione di perdita lindice di malessere ideato da Arthur


Okun negli anni 70 del secolo scorso (OMI: Okun Misery Index). Tale indice si
distingue dalla funzione di perdita L poich esso pone a uno i pesi politici di inflazione
e disoccupazione, pone a zero i livelli ottimali di queste due variabili e non eleva al
quadrato i termini tra parentesi. Abbiamo dunque:

= + .

Ovviamente, la minimizzazione dellOMI sottoposta ai vincoli del funzionamento


delleconomia, e in particolare alle relazioni esistenti tra le variabili in gioco. Per
esempio, se il sistema economico caratterizzato dallesistenza di una curva di
Phillips, ci significa che esiste un legame stabile tale per cui allaumentare della
domanda aggregata la disoccupazione si riduce e si assiste pure a una crescita dei salari
e dellinflazione. Nella sua versione pi elementare, lequazione di Phillips pu essere
rappresentata da una funzione lineare del tipo:
17

= .

dove i termini e sono parametri esogeni. Lequazione pu essere spiegata in vari


modi: uno dei pi semplici consiste nel supporre che al ridursi della disoccupazione il
potere rivendicativo dei lavoratori aumenta, per cui la crescita salariale si accentua e, se
le imprese scaricano laumento dei salari sui prezzi, si registra anche un aumento
dellinflazione. Il termine , in questo senso, pu essere considerato un indice della
reattivit delle rivendicazioni salariali dei lavoratori al variare della disoccupazione.

Il problema del policymaker pu dunque essere descritto come un problema di scelta di


quellammontare di spesa pubblica G che determina un livello di domanda aggregata
tale da minimizzare la funzione OMI sotto il vincolo della equazione di Phillips.
Nellesempio descritto dal grafico di Fig. 2, la linea continua rappresenta il vincolo
dellequazione di Phillips, mentre le linee tratteggiate rappresentano diversi livelli
dellindice di malessere di Okun. Ovviamente, linee tratteggiate pi alte indicano
combinazioni peggiori di inflazione e disoccupazione e quindi corrispondono a un
malessere maggiore. La combinazione di inflazione e disoccupazione descritta dal punto
E si situa lungo la linea tratteggiata pi bassa che pu essere raggiunta, dato il vincolo
esistente. Le autorit saranno quindi indotte a scegliere un livello di spesa che colloca il
sistema sul punto E.

Fig. 2 Un problema di minimizzazione dellindice di malessere di Okun

Il punto E una tipica soluzione dangolo: le autorit decidono di portare a zero


linflazione e di accettare un certo livello di disoccupazione. Questo risultato dipende
dal fatto che nellesempio descritto >1, ossia linclinazione della equazione di
Phillips maggiore rispetto allinclinazione unitaria della linea dellindice di malessere
di Okun (dato che OMI = + u allora = OMI u, e quindi linclinazione
dellequazione pari a 1).
18

Tale risultato, evidentemente, pu modificarsi per varie ragioni. Per esempio, se le


richieste salariali dei lavoratori risultassero meno sensibili alle variazioni della
disoccupazione, allora si ridurrebbe in valore assoluto e quindi la retta dellequazione
di Phillips diventerebbe meno ripida e pi piatta. Il risultato mostrato sul grafico
precedente dipende anche dal fatto che lindice di Okun che stiamo considerando
attribuisce un peso unitario sia allinflazione che alla disoccupazione. Questa, tuttavia,
pu esser considerata una scelta di tipo politico, e quindi pu essere ritenuta opinabile.
Alcuni studiosi, per esempio, hanno criticato lindice di Okun fornendo evidenze
empiriche a sostegno della tesi che i cittadini europei e statunitensi attribuiscono un
peso maggiore al malessere causato dalla disoccupazione rispetto al disagio provocato
dallinflazione.1 In tal caso, linclinazione delle rette dellindice di malessere risulta pi
ripida. Se dunque si accetta la possibilit che le rivendicazioni dei lavoratori siano meno
sensibili alle variazioni della disoccupazione, e che la popolazione dia pi peso al
problema della disoccupazione che a quello dellinflazione, allora si potr giungere a
una soluzione dangolo diversa, caratterizzata dal fatto che le autorit puntano ad
azzerare la disoccupazione e a tollerare un certo livello positivo dinflazione.

ESERCIZIO: supponiamo che le autorit si basino su un indice di Okun che attribuisce


un peso per la disoccupazione maggiore del peso riguardante linflazione: ad esempio
OMI = 1 + 2u , con 1 < 2. Spiega sotto quale condizione algebrica la soluzione
dangolo del problema di minimizzazione del malessere corrisponde al caso in cui la
disoccupazione si azzera e traccia il grafico corrispondente.

1.6 La critica di Lucas

Fino a questo momento abbiamo ipotizzato che un modello del tipo y = Ax ponesse
semplicemente il problema di verificare se, dato il numero di obiettivi e di strumenti, la
regola aurea di Timbergen fosse rispettata. In questo senso, abbiamo ipotizzato che i
parametri contenuti nella matrice A fossero gi determinati e sufficientemente stabili
nel tempo anche al variare di x e y. Nel caso del semplice modello keynesiano di
determinazione della produzione, ci significa assumere, per esempio, che il parametro
c1 sia stato gi determinato tramite indagine statistica e sia risultato stabile anche a
seguito di variazioni nei valori assunti da obiettivi come Y e da strumenti come G0.
Sulla base di questa impostazione, gli economisti utilizzano versioni pi sofisticate del
modello keynesiano, ma concettualmente molto simili ad esso, per elaborare modelli
econometrici tesi a fare previsioni circa, per esempio, leffetto delle variazioni della
spesa pubblica sugli andamenti della produzione, e cos via.

Leconomista e premio Nobel Robert Lucas ha avanzato nel 1976 una celebre critica ai
modelli econometrici tradizionali basati sullidea di costanza dei parametri. Egli ha
infatti sostenuto che al mutare degli orientamenti di politica economica delle
autorit di governo si verificano anche cambiamenti nei comportamenti degli
agenti privati, i quali a loro volta modificheranno i parametri dei modelli econometrici
di previsione. Secondo Lucas, dunque, se le autorit di governo pretendono di prevedere
1
Di Tella, Rafael; MacCulloch, Robert J. and Oswald, Andrew (2001). "Preferences over Inflation and
Unemployment: Evidence from Surveys of Happiness". American Economic Review. 91 (1).
19

gli effetti delle loro politiche assumendo parametri comportamentali dati, esse
commettono un errore che finir per inficiare le loro aspettative, rendendo impossibile
un esercizio razionale dellazione di policy.

Semplificando al massimo, possiamo descrivere la critica di Lucas utilizzando ancora


una volta il modello keynesiano. Tale modello, come sappiamo, prevede che
allaumentare della spesa pubblica si verifichi un aumento della produzione. Tuttavia, se
assumiamo che le autorit di governo abbiano deciso di aumentare la spesa pubblica
senza accrescere corrispondentemente limposizione fiscale, la conseguenza che si
verificher pure un aumento del deficit pubblico. Se le famiglie prevedono che tale
aumento del deficit pubblico dovr essere coperto da futuri aumenti della tassazione,
esse potrebbero prepararsi alleventualit di maggiori esborsi fiscali futuri aumentando
la propensione al risparmio e riducendo la propensione al consumo: la conseguenza, in
tal caso, che il parametro c1 non pu essere pi considerato costante poich diminuisce
proprio a seguito della variazione di spesa pubblica. Se non si tiene conto di tale
mutamento parametrico, il modello di politica economica non sar in grado di prevedere
leffetto sulle variabili obiettivo di qualsiasi variazione delle variabili strumento.

Dalla critica di Lucas alcuni studiosi hanno tratto limplicazione, tipicamente liberista,
secondo cui gli effetti dellazione delle autorit di politica economica sono troppo
difficili da prevedere, e quindi sarebbe bene che le autorit si limitassero a
determinare i livelli delle variabili di politica economica in base a regole fisse ed
evitassero di modificarli ogni volta su basi discrezionali. Altri ricercatori hanno
invece sostenuto che, per ovviare alla critica di Lucas, occorre dare fondamento
microeconomico ai parametri strutturali dei modelli macroeconometrici: ogni
parametro, cio, deve essere determinato in base a dei modelli che tengano conto delle
possibili interazioni tra le decisioni delle autorit di governo e i comportamenti delle
famiglie e delle imprese private.

In ogni caso, anche riguardo ai modi di affrontare la critica di Lucas si presenta un


problema teorico di fondo: le tesi in merito alle possibili reazioni degli agenti privati al
variare delle politiche dei governi saranno diverse a seconda degli approcci teorici
adottati. Una differenza, a tale riguardo, pu riguardare il carattere pi o meno razionale
dei comportamenti degli agenti privati. Si pu accettare in tal senso lidea tipicamente
neoclassica di comportamento razionale e massimizzante oppure, seguendo gli studi del
premio Nobel Herbert Simon e di altri, si possono ritenere pi plausibili forme di
razionalit limitata degli agenti privati. Chiaramente, a seconda di tali diverse ipotesi
di comportamento, cambier il modo di prevedere le eventuali reazioni degli agenti
privati ai mutamenti di policy. Inoltre, prendendo spunto dallAnti-Blanchard,
possiamo distinguere tra modelli fondati sullidea di equilibrio naturale e modelli
che rifiutano tale concetto. Noi sappiamo che mentre la visione mainstream esclude
che la spesa pubblica abbia ripercussioni sul livello di equilibrio naturale della
produzione e sul reddito, lapproccio alternativo pu invece ammettere che un aumento
della spesa pubblica determini aumenti dei livelli di lungo periodo della produzione e
dei redditi. Questa differenza si colloca in un certo senso al di sopra del problema posto
da Lucas, dal momento che da un lato essa prescinde dalla reattivit degli agenti privati,
e dallaltro finisce per condizionarla. Si pu infatti ragionevolmente presumere che se la
20

spesa pubblica aumenta i redditi futuri, gli agenti privati avranno meno ragioni di
ridurre la propensione al consumo per prepararsi a eventuali esborsi fiscali futuri.

1.7 Quali obiettivi? Il problema della redistribuzione

Commentando lindice di malessere di Okun, abbiamo osservato che potrebbero


sussistere diverse valutazioni politiche in merito ai pesi da attribuire ai danni sociali
provocati dallinflazione e dalla disoccupazione. I parametri contenuti nellindice di
malessere potrebbero cambiare in base alle preferenze della popolazione, e al limite
potrebbe anche modificarsi la sua forma funzionale. Abbiamo cos potuto notare che la
scelta degli obiettivi, siano essi fissi o flessibili, costituisce un problema
eminentemente politico. La questione che si pone, al riguardo, la seguente: in quali
modi le autorit di governo affrontano il problema politico della scelta degli obiettivi? E
gli economisti possono in tal senso fornire dei criteri guida in merito alla preferenza di
alcuni obiettivi rispetto ad altri?

La questione della definizione degli obiettivi risulta ancor pi delicata se riguarda la


scelta della miglior distribuzione del reddito e della ricchezza tra i membri della
popolazione. A tal proposito, nellambito della scuola di pensiero neoclassica andato
sviluppandosi un dibattito sulla cosiddetta economia del benessere, tra economisti
favorevoli ed economisti contrari a misure di redistribuzione tra i diversi membri della
popolazione.

I partecipanti a questo dibattito parto da alcune propriet che la teoria neoclassica


attribuisce al libero funzionamento di un mercato di concorrenza perfetta. Come
sappiamo, il mercato di concorrenza perfetta quello in cui nessun agente economico
abbia un potere di mercato e non ci siano vincoli di nessun tipo alla libert degli scambi.
Gli economisti neoclassici attribuiscono alla libert degli scambi che si realizza in
questo mercato una serie di importanti caratteristiche. In particolare, la teoria
neoclassica stabilisce che il libero gioco del mercato condurr a un equilibrio in cui non
si potranno effettuare altri scambi mutuamente vantaggiosi per tutti, ossia nessun agente
potr migliorare ulteriormente la propria posizione senza peggiorare quella degli altri.
Questo tipo di equilibrio definito Pareto-efficiente, dal nome di Vilfredo Pareto,
leconomista italiano che per primo lo ha enunciato. La tesi secondo cui la libert degli
scambi su un mercato concorrenziale determina un equilibrio Pareto-efficiente
rappresenta il cosiddetto primo teorema delleconomia del benessere.

Per descrivere le caratteristiche di questo teorema possiamo avvalerci qui di una


situazione molto semplificata. Immaginiamo di trovarci di fronte a una economia di
puro scambio, in cui cio esistono solo dei consumatori e non esistono imprese. Ogni
consumatore dispone di una dotazione di beni e pu scegliere se effettuare o meno
scambi con altri consumatori. Per semplificare ulteriormente, immaginiamo che esistano
sul mercato solo due consumatori, Anna e Paolo, nessuno dei quali tuttavia ha un potere
di mercato. E assumiamo pure che i consumatori abbiano a disposizione solo due tipi di
beni: cibo e vestiario. Possiamo cos rappresentare le mappe di curve di indifferenza dei
due consumatori avvalendoci della cosiddetta scatola di Edgeworth:
21

La scatola costruita come due mappe di indifferenza sovrapposte: quella di Anna


nella posizione consueta e quella di Paolo rovesciata. Ovviamente, pi i due
consumatori si allontanano dalle loro rispettive origini degli assi (i due punti O della
scatola), pi cresce rispettivamente la loro utilit: ci significa che lutilit di Anna
aumenta man mano che ella si sposta su punti pi in alto e pi a destra sul grafico,
mentre lutilit di Paolo cresce man mano che si muove verso punti situati in basso e a
sinistra.

Supponiamo ora che le dotazioni iniziali di cibo e di vestiario di Anna e Paolo siano
rappresentate dal punto A sul grafico. Ebbene, si pu notare che entrambi i consumatori
potrebbero trarre mutuo vantaggio da una serie di scambi. Per esempio, se Paolo
cedesse un po del suo cibo e Anna cedesse in cambio un po del suo vestiario, i due
potrebbero posizionarsi su un nuovo punto, ad esempio C, dove entrambi si
troverebbero su una curva di indifferenza caratterizzata da una utilit pi alta. Pi in
generale, possiamo affermare che se i due consumatori partono da dotazioni di cibo e
vestiario rappresentate dal punto A, allora si potr determinare un miglioramento
dellutilit di entrambi o almeno di uno dei due consumatori effettuando liberamente
scambi che consentano uno spostamento su uno qualsiasi dei punti situati sulla linea B,
C, D. Questi sono punti di equilibrio perch sono punti di tangenza tra le curve di
indifferenza dei due consumatori: ci significa che, giunti su uno di quei punti, non sar
pi possibile effettuare scambi mutuamente vantaggiosi per entrambi, cio non si potr
migliorare ulteriormente la situazione di un consumatore senza peggiorare quella
dellaltro (lo studente noti che, per esempio, una volta giunti su un punto come C
qualsiasi movimento comporter o un peggioramento della situazione di Paolo o un
peggioramento della situazione di Anna, e quindi chiaro che da quel punto non ci sar
22

pi mutuo interesse a effettuare scambi e a spostarsi). Dunque, una volta che si giunga
su un punto di tangenza, gli scambi si fermeranno e lequilibrio Pareto-efficiente sar
raggiunto.

Nel nostro grafico la curva che va dallorigine O di Anna allorigine O di Paolo


linsieme di tutti i punti di tangenza tra le curve di indifferenza dei due consumatori ed
definito curva dei contratti. Tale curva rappresenta linsieme di tutti i punti Pareto-
efficienti che si possono raggiungere tramite libert degli scambi. Quale che sia il punto
da cui si parte, la libert degli scambi tra Anna e Paolo condurr necessariamente su un
punto Pareto-efficiente della curva dei contratti. Il primo teorema delleconomia del
benessere cos dimostrato.

Ovviamente, non difficile notare che il punto di posizionamento sulla curva dei
contratti dipender in misura significativa dalle dotazioni iniziali. Se si parte da un
punto come A allora gli scambi potranno condurre a uno dei punti lungo il segmento B-
D. Se per si parte da un punto come G, allora il gioco degli scambi di mercato potr
condurre a un punto situato lungo il segmento E-H. In tutti i casi si tratta di equilibri
Pareto-efficienti, nel senso che una volta giunti in essi non ci saranno altri scambi
mutuamente vantaggiosi da realizzare e quindi non ci sar pi incentivo a effettuarli. Ma
ovvio che per Anna e Paolo si tratta di situazioni molto diverse tra loro. E chiaro cio
che lungo la curva dei contratti esisteranno equilibri Pareto-efficienti preferiti da Anna
(ad esempio F), altri preferiti da Paolo (ad esempio H), altri ancora che appaiono
maggiormente equi (per esempio C). Il fatto che si raggiunga luno o laltro di questi
equilibri dipende dalla situazione da cui si parte, cio da quante dotazioni di beni
dispone ciascuno dei due soggetti. Se si parte da una situazione come il punto G, in cui
Paolo chiaramente ricco di dotazioni mentre Anna chiaramente povera, gli
scambi potranno portarli su un punto come E che determiner mutui vantaggi per
entrambi. Ma evidente che dal punto di vista della equit tra i due soggetti le cose non
cambieranno granch.

Abbiamo dunque compreso che la libert degli scambi in un mercato di concorrenza


perfetta pu condurre a una situazione di efficienza nel senso di Pareto, ma non pu
risolvere problemi di equit distributiva. I problemi di equit, dicono i neoclassici,
potranno al limite essere risolti politicamente modificando le dotazioni iniziali dei
soggetti: per esempio intervenendo con tasse e sussidi per modificare le dotazioni di
partenza da un punto come G a un punto come A. Limportante, dicono i neoclassici,
che gli interventi politici per fini di equit non ostacolino poi la libert degli scambi sul
mercato necessaria per raggiungere anche lefficienza.

E possibile in questo senso enunciare anche il secondo teorema delleconomia del


benessere: uneconomia concorrenziale di libero mercato pu raggiungere
spontaneamente una data allocazione Pareto-efficiente sulla curva dei contratti, a
condizione che prima siano redistribuite appropriatamente le dotazioni iniziali.

Pareto tuttavia non era persuaso dallidea di consentire redistribuzioni di risorse tra i
vari agenti economici. Egli si dichiarava contrario agli interventi politici per fini di
equit. A suo avviso, i livelli di utilit di due consumatori sono del tutto soggettivi e
quindi non sono confrontabili. Se prendiamo ad esempio un punto come G, evidente
23

che in esso Paolo dispone di una dotazione iniziale di cibo e vestiario molto maggiore
rispetto ad Anna. Paolo, insomma, oggettivamente pi ricco. Per Pareto, tuttavia, ci
non consente di affermare che Paolo abbia unutilit superiore a quella di Anna. In altre
parole, le curve di indifferenza di Paolo possono essere ordinate tra di loro, partendo da
quella che fornisce lutilit pi bassa e arrivando a quella che fornisce lutilit pi alta.
Ma quelle curve non possono in alcun modo essere messe a confronto con le curve
dindifferenza e i rispettivi livelli di utilit di Anna. Si dice in questo senso che Pareto
elabora un criterio ordinalista che consenta di indicare lordine delle situazioni
preferite da un singolo soggetto, ma nega validit scientifica a qualsiasi criterio
cardinalista che pretenda di assegnare specifici numeri a ciascuna situazione in modo
da poter poi comparare le situazioni di soggetti diversi.

In base a questa concezione dellutilit, Pareto arrivava quindi a contestare qualsiasi


intervento redistributivo sulle risorse iniziali. In questottica, quindi, un intervento
politico per spostare il punto di partenza da G ad A sarebbe inammissibile e
bisognerebbe invece lasciar fare alle forze spontanee del mercato, che porteranno il
sistema dal punto G iniziale a un punto di equilibrio compreso tra E e H.

Lordinalismo di Pareto genera dunque una posizione liberista estrema, che suggerisce
di affidarsi solo al mercato e contesta qualsiasi intervento pubblico votato allequit
distributiva. In altre parole, data lipotesi di non confrontabilit delle utilit dei diversi
membri di una collettivit, qualsiasi politica redistributiva sarebbe un atto arbitrario,
privo di basi scientifiche per esser giustificata.

La visione di Pareto risulta tuttora prevalente tra gli economisti neoclassici. Essa
tuttavia stata criticata per due ordini di ragioni. In primo luogo, il premio Nobel
Kenneth Arrow ha dimostrato il cosiddetto teorema di impossibilit: se si assume il
principio paretiano e si aggiungono altre ipotesi standard neoclassiche, tra cui la
completezza delle preferenze, la transitivit e la non-dittatorialit delle preferenze di un
individuo sugli altri, allora non sar possibile trarre una funzione di benessere sociale in
grado di ordinare tutte le situazioni possibili. Curiosamente, il principio di Pareto, che
avrebbe dovuto salvaguardare la collettivit da scelte politiche arbitarie, risulta essere
incompatibile con un regime non dittatoriale. A questo risultato si aggiunge la critica di
Amartya Sen, un altro premio Nobel, il quale ha delineato il cosiddetto paradosso de
Lamante di Lady Chatterley. Alla luce di questo paradosso, Sen afferma che il
principio di Pareto in un certo senso illiberale essendo incompatibile con il
cosiddetto liberalismo di minima, consistente nel fatto che per ogni individuo deve
esistere almeno unalternativa sulla quale la preferenza personale implica la stessa
preferenza sociale.
24

Esempio tratto da R. Cellini, Politica Economica, Mc-Graw-Hill

Ad olgni modo, la visione di Pareto non da tutti condivisa. Alcuni studiosi, pur
neoclassici, hanno accettato una impostazione cardinalista, secondo la quale le utilit
dei singoli individui possono essere sommate e si pu quindi giungere alla
determinazione di una funzione di benessere sociale riferita allintera collettivit.
Esistono in tal senso vari esempi di funzioni di benessere sociale. C la funzione
Benthamiana, che data semplicemente dalla somma delle utilit individuali di
ciascun membro della popolazione. Ad esempio, nel caso di una collettivit di due soli
membri, si ha: U = U1+U2. C poi la funzione Pigouviana, che si basa sullipotesi
di utilit marginale decrescente della ricchezza: U = U1U2. Esiste poi la funzione
Rawlsiana, che descrive idealmente la scelta alla quale perverrebbe una collettivit
nel caso puramente ipotetico in cui fosse costretta a decidere la distribuzione delle
risorse sotto un velo di ignoranza, ossia prima di conoscere la posizione sociale che
ciascuno dei suoi membri assumer: U = min [U1, U2]. Per quanto diverse tra loro, tutte
queste funzioni si basano sul presupposto della confrontabilit e sommabilit delle
utilit di ciascun membro di una data popolazione, il quale offre un criterio analitico che
pu giustificare il perseguimento da parte delle autorit di eventuali obiettivi di
redistribuzione delle risorse.

1.8 La politica economica e il conflitto sociale

Ispirati da unidea della societ divisa in classi contrapposte, tipica degli economisti
classici e di Marx, gli odierni esponenti delle scuole pensiero economico critico
considerano metodologicamente improbo costruire una funzione di benessere sociale in
grado di definire gli obiettivi generali delle autorit di governo. Stando alla loro visione,
infatti, ogni scelta di politica economica tende ad essser portatrice di un interesse
prevalente allinterno della societ, e di conseguenza susciter sempre un conflitto tra i
favorevoli e i contrari ad essa.
25

II
POLITICA ECONOMICA DEL LAVORO

Il problema del lavoro e della creazione di occupazione rappresenta forse la sfida


principale della politica economica contemporanea. In quel che segue riportiamo alcuni
dati sulle forze lavoro e poi analizzeremo alcuni modelli prevalenti per lo studio del
mercato del lavoro.

2.1 Alcuni dati sulle forze lavoro

In ciascun paese gli istituti di statistica raccolgono ed elaborano dati inerenti al lavoro.
In Italia lISTAT pubblica periodicamente la Indagine sulle forze di lavoro. Lo studio
fornisce varie serie di dati, tra cui quelli relativi alloccupazione e alla disoccupazione.

La maggior parte dei dati viene raccolta tramite interviste a campioni di popolazione.
Riportiamo alcune definizioni adottate dallISTAT e dagli altri istituti di statistica nelle
loro indagini campionarie. In primo luogo, le forze di lavoro sono rappresentate dalle
persone tra i 15 e i 64 anni di et occupate oppure in cerca di occupazione.

Le persone occupate sono coloro che hanno svolto almeno 1 ora di lavoro nella
settimana precedente con corrispettivo monetario (oppure anche senza corrispettivo se
lavorano abitualmente in una azienda familiare), oppure sono temporaneamente assenti
dal lavoro (per ferie o per malattia). Qui di seguito riportato uno schema che indica il
modo in cui i questionari dellISTAT distinguono tra persone occupate e non.
26
27

Le persone in cerca di occupazione sono quelle non occupate che si dichiarano


disponibili a lavorare (o ad avviare unattivit autonoma) entro le due settimane
successive, e che abbiano compiuto almeno unazione di ricerca di lavoro nelle quattro
settimane precedenti lintervista (requisito non necessario per chi abbia trovato un
lavoro che inizier entro tre mesi).

Le indagini campionarie consentono inoltre di distinguere tra le diverse tipologie di


lavoratori e di contratti. Si riesce cos a calcolare il numero di lavoratori dipendenti e il
numero dei lavoratori indipendenti, cio lavoratori autonomi a partita IVA,
professionisti, ecc. Tra i lavoratori dipendenti, si pu distinguere tra coloro che hanno
stipulato un contratto di lavoro permanente oppure a termine, e tra coloro che
lavorano a tempo pieno o a tempo parziale, ecc. Tra coloro che cercano lavoro, si pu
distinguere tra quelli che hanno gi esperienze e quelli che non hanno precedenti
esperienze lavorative. Tra gli inattivi si pu inoltre distinguere tra coloro che proprio
non sono disponibili a lavorare, e coloro che invece non cercano attivamente un
lavoro ma che sarebbero disponibili a lavorare se trovassero un impiego (talvolta,
riguardo a questi soggetti, si parla di lavoratori scoraggiati).

Il seguente cartogramma riporta i dati relativi alla ripartizione delle forze lavoro in Italia
nel 2012:
28
29

Si noti che le percentuali riportate nei riquadri sono calcolate in rapporto al totale della
popolazione residente. E possibile tuttavia calcolare anche altre percentuali. Per
esempio, sapendo che i lavoratori dipendenti con contratto a termine sono 1.617.000 a
tempo pieno e 615.000 a tempo parziale, e che il totale dei lavoratori dipendenti
17.087.000, allora si pu verificare che i lavoratori dipendenti con contratto a
termine rappresentano il 13,06% del totale dei lavoratori dipendenti
(1.617.000+615.000=2.232.000/17.087.000=0,1306). Naturalmente, questa percentuale
non tiene conto del fatto che spesso tra i lavoratori definiti indipendenti in realt si
nascondono molte situazioni di lavoro dipendenti sostanzialmente a termine: il caso
per esempio degli agenti di commercio. Inoltre, se guardiamo non al totale dei contratti
ma solo alle nuove assunzioni, il numero dei rapporti di lavoro a termine aumenta
considerevolmente: lISTAT segnala che tra il 2005 e il 2010 i contratti a termine
stipulati dalle grandi imprese sono stati il 71,5% del totale delle assunzioni.

Dai dati riportati nel cartogramma inoltre possibile ricavare altri indicatori. Si
consideri per esempio la forza lavoro, data dalla somme delle persone occupate e delle
persone in cerca di occupazione. Nel 2012, la forza lavoro era pari a
22.793.000+2.801.000 = 25.594.000 unit. E inoltre possibile calcolare il tasso di
disoccupazione, dato dal rapporto fra persone in cerca di occupazione e la forza lavoro:
nel 2012 era pari a 2.801.000/25.594.000 = 0,109, ossia il 10,9%. C poi il tasso di
occupazione, dato dal rapporto fra gli occupati e la corrispondente popolazione di
riferimento (solitamente si calcola sulla popolazione in et lavorativa, tra 15 e 64 anni):
nel 2012 esso era pari a 22.793.000/40.033.000 = 0,569, ossia 56,9%. E inoltre
possibile calcolare il tasso di attivit, dato dal rapporto fra le persone appartenenti alle
forze di lavoro e la corrispondente popolazione di riferimento, solitamente quella in et
lavorativa; e il tasso di inattivit, dato dal rapporto fra gli inattivi e la corrispondente
popolazione di riferimento, solitamente quella in et lavorativa. La somma dei tassi di
attivit e inattivit deve dare 1.

Il tasso di disoccupazione forse lindicatore pi comune tra tutti quelli citati, ma non
sufficiente per valutare la situazione occupazionale di un paese. Esso ha infatti vari
limiti: per esempio, dato che non contempla i lavoratori scoraggiati, rischia di condurre
a risultati fuorvianti. Pensiamo a una situazione in cui, a causa del protrarsi della crisi
economica, alcune persone smettono di cercare attivamente un lavoro. Guardando al
cartogramma precedente, possiamo supporre per esempio che 200.000 persone passino
dallo stato di persone in cerca di occupazione allo stato di persone inattive in et
lavorativa. Ebbene, in questa circostanza sia le persone in cerca di lavoro che la forza
lavoro si riducono di 200.000 unit, e il tasso di disoccupazione diminuisce:
2.601.000/25.394.000 = 0,102, ossia il 10,2%. In apparenza dunque la disoccupazione si
ridotta, ma ci dipende solo dal fatto che molte persone, a causa della crisi, si sono
rassegnate e hanno smesso di cercare lavoro. Si noti per che anche il tasso di
occupazione presenta un limite: nel caso dei 200.000 scoraggiati in pi esso non
reagisce minimamente, cio non in grado di rilevare il fenomeno. Invece, i tassi di
attivit e di inattivit riflettono correttamente il fenomeno degli scoraggiati, ed quindi
ad essi che occorre guardare per valutarne lentit. Una corretta valutazione della
situazione occupazionale di un paese dovrebbe dunque basarsi su pi indicatori.
30

Di grande rilevanza sono anche i dati sul lavoro suddivisi per genere, che consentono
di esaminare la posizione delle donne sul mercato del lavoro nei diversi paesi. Nel
2012, in Italia, il tasso di attivit femminile era del 53,7%, inferiore di circa 11 punti
percentuali alla media dei tassi di attivit delle donne nella Ue a 27 paesi. E da notare
che il tasso di attivit femminile aumentato in misura significativa a seguito della crisi
economica esplosa nel 2008: mentre il tasso di attivit medio tra il 2008 e il 2012
aumentava di 0,8 punti, il tasso di attivit femminile cresciuto di due punti percentuali.
La crisi sembra cio avere spinto un numero maggiore di donne a entrare nel mercato
del lavoro:

Ci nonostante, i tassi di attivit e di occupazione femminili restano ancora, in Italia, tra


i pi bassi dEuropa. Il tasso di occupazione femminile, in particolare, nel 2012 era al
47,5%, contro una media Ue a 27 del 58,8%:

Tra uomini e donne sussiste anche un divario nelle retribuzioni a favore dei primi: la
Banca dItalia ha calcolato che nel periodo 1995-2008 esso era pari al 6% in media;
inoltre, esaminando lavoratori e lavoratrici con qualifiche comparabili in termini di
istruzione, esperienza, ecc. e con tipi di lavoro equivalenti in termini di qualifica, orario,
ecc., il divario superava il 13% nel 2008. E da notare tuttavia che tale divario, secondo
lIstat, inferiore a quello che si registra negli USA e in Gran Bretagna (intorno al 25%)
31

e nei paesi del Nord Europa (15% circa). Il risultato si spiegherebbe con il fatto che in
Italia si registra una minore partecipazione al mercato del lavoro delle donne meno
istruite.

Altrettanto importanti sono poi gli indicatori che si soffermano sulla situazione
occupazionale dei pi giovani, con particolare riguardo alla fascia tra i 15 e i 24 anni.

I giovani si ritrovano oggi con dei salari dingresso molto pi bassi rispetto al livello
dei salari di ingresso che si registravano nei decenni passati. Una ricerca della Banca
dItalia del 2007 ha evidenziato che il differenziale tra salari dei lavoratori anziani e
salari dei pi giovani prima diminuito e poi aumentato: nel 2004 i lavoratori giovani
guadagnavano il 35% in meno dei lavoratori anziani; alla fine degli anni 70 il
differenziale tra i salari dei pi anziani e quelli dei pi giovani era del 25%, mentre nel
1989 era del 20%.

Riguardo agli andamenti occupazionali, lISTAT segnala che a fine 2012 i giovani in
cerca di lavoro in Italia sono stati 641.000. Il tasso di disoccupazione giovanile,
calcolato sulla fascia dei 15-24enni, stato pari al 37,1%. Stando ai dati EROSTAT,
questo risultato fa s che lItalia si ritrovi con il quarto pi elevato tasso di
disoccupazione giovanile nella Ue a 27, dopo Grecia, Spagna e Portogallo. La media Ue
pari al 22,8%:

A dimostrazione dei rischi di commettere errori, interessante un recente comunicato


dellISTAT, nel quale si legge: A seguito di quanto pubblicato da alcune testate online
in merito ai dati mensili su occupati e disoccupati diffusi questa mattina, lIstat torna a
precisare che non corretto affermare pi di un giovane su tre disoccupato. Infatti,
32

in base agli standard internazionali, il tasso di disoccupazione definito come il


rapporto tra i disoccupati e le forze di lavoro (ovvero gli attivi, i quali comprendono
gli occupati e i disoccupati). Se, dunque, un giovane studente e non cerca attivamente
un lavoro non considerato tra le forze di lavoro, ma tra gli inattivi. Per quanto
riguarda il dato sulla disoccupazione giovanile diffuso oggi e relativo al mese di
novembre 2012, va ricordato che i disoccupati di et compresa tra i 15 e i 24 anni
sono 641 mila, il che corrisponde al 37,1% delle forze di lavoro di quellet e al 10,6%
della popolazione complessiva della stessa et, nella quale rientrano studenti e altre
persone considerate inattive. Quindi sarebbe corretto riportare che pi di 1 giovane su
10 disoccupato oppure che pi di uno su tre dei giovani attivi disoccupato. Una
testimonianza del fatto, questa, che spesso i media interpretano in modo errato i dati
ufficiali.

2.2 Lequilibrio con disoccupazione involontaria del modello AS-AD

Il modello macroeconomico AS-AD di Blanchard rappresenta, come sappiamo, lattuale


mainstream, la visione dominante della teoria economica. Esso descrive una economia
non pienamente concorrenziale, caratterizzata da imperfezioni di mercato e
asimmetrie informative. In questa economia, per esempio i lavoratori si organizzano in
sindacati e le imprese sono sufficientemente grandi da godere di un potere di mercato. Il
modello mainstream di Blanchard d luogo a un equilibrio definito anchesso
naturale, che tuttavia pu corrispondere a una situazione di disoccupazione
involontaria. Tale risultato rappresenta una novit rispetto ai modelli neoclassici, sia
tradizionali che contemporanei. Per il modello di Arthur Pigou, infatti, la
disoccupazione involontaria pu essere solo un fenomeno di squilibrio. Per le analisi
neoclassiche pi recenti che ad esempio si rifanno a Edward Prescott, invece, la stessa
possibilit che si verifichi disoccupazione involontaria viene messa in discussione.

Se si concepisce la disoccupazione involontaria come fenomeno di equilibrio, bisogna


dimostrare che non esistono forze in grado di modificarlo repentinamente. A questo
proposito emerge subito un problema: per quale motivo i disoccupati involontari non
attivano la competizione al ribasso sui salari? In altri termini, perch non si attiva
quel fenomeno di underbidding che nel modello neoclassico consentiva di
raggiungere la piena occupazione?

Osserviamo qui di seguito il grafico del mercato del lavoro di Blanchard. Partiamo da
una situazione descritta dal punto A, corrispondente a un equilibrio naturale con un
livello di disoccupazione pari a un. Blanchard e gli altri esponenti del mainstream
ammettono che una parte almeno di questo livello di disoccupazione potrebbe essere
costituita da disoccupati involontari. Viene allora da chiedersi: cosa impedisce ai
disoccupati involontari di esercitare una pressione concorrenziale al ribasso, che
consenta di ridurre il parametro di conflittualit z e di abbassare la curva del salario
reale richiesto dai lavoratori? Cosa ostacola cio quel processo di underbidding che
dovrebbe portare lequilibrio nel punto B, in cui lequilibrio naturale presenta un livello
33

di disoccupazione un pi basso, plausibilmente caratterizzato da un numero di


disoccupati involontari inferiore se non addirittura nullo?

W/P

B A

un un

La risposta di Blanchard e degli altri esponenti del mainstream la seguente: proprio le


imperfezioni e asimmetrie del mercato rendono impossibile o inefficace la riduzione dei
salari in presenza di disoccupazione. Pu accadere, per esempio, che anche se i
disoccupati si offrono a livelli di salario pi bassi, le imprese decideranno comunque di
non assumerli. I possibili motivi di questo comportamento sono svariati. Nel modello di
isteresi di Blanchard e Summers, studiato allinterno dellAnti-Blanchard, la ragione
verte sui costi di sostituzione degli insiders con gli outsiders. Qui esamineremo un altro
tipico modello mainstream del mercato del lavoro, elaborato negli anni 80 e
largamente utilizzato nelle analisi macroeconomiche degli anni successivi: il modello
dei salari di efficienza.

2.3 Il modello dei salari di efficienza

La distinzione insider-outsider alla base del concetto di isteresi ha avuto un certo


successo soprattutto per analizzare i mercati del lavoro di quei paesi in cui sussiste una
certa presenza del sindacato, che pu organizzare scioperi in caso di licenziamenti, o di
una normativa a protezione dei lavoratori, come ad esempio regimi di tutela dei
lavoratori che impongono alle imprese di pagare delle indennit in caso di
licenziamento. Ma cosa avviene in quegli ambiti in cui il sindacato troppo debole per
parlare di insiders e non vi sono tutele significative a protezione dei lavoratori? Una
possibile risposta proviene dal modello dei salari di efficienza, elaborato da Carl
Shapiro e Joseph Stiglitz in un articolo dal titolo eloquente: La disoccupazione come
meccanismo per disciplinare i lavoratori (1984). Questo modello esclude la presenza
dei sindacati e di eventuali costi di licenziamento. Anchesso tuttavia pone un limite
allunderbidding. Lipotesi di fondo del modello che, sebbene i disoccupati si offrano
a salari pi bassi rispetto agli occupati, alle imprese non conviene sostituire gli uni con
34

gli altri poich si ritiene che esista una relazione tra livello del salario e livello
dellimpegno lavorativo:

(W/P) impegno lavorativo

Pertanto, solo se il salario reale W/P abbastanza alto da soddisfare i lavoratori, allora
questi ultimi si impegnano anzich imboscarsi per evitare di lavorare (in inglese si
dice shirking). Descriviamo il modello, cominciando con le definizioni delle variabili:

V utilit dei lavoratori;


W salario reale (assumiamo per semplicit che P=1);
e sforzo lavorativo;

(supponiamo che e sia uguale a 0 oppure a 1. Per e = 1 il lavoratore si impegna e


conserva sempre il posto di lavoro; per e = 0 il lavoratore si imbosca e quindi
rischia di essere scoperto e licenziato)

q probabilit del lavoratore che si imbosca di essere scoperto e licenziato;


W sussidio per i disoccupati;
Vu utilit del lavoratore disoccupato;
Ve utilit del lavoratore occupato;
Ves utilit del lavoratore occupato che si imbosca;
Ven utilit del lavoratore occupato che si impegna.
a probabilit per i disoccupati di trovare un nuovo impiego
(come vedremo, a inversamente correlata al tasso di disoccupazione).

Definiamo ora lutilit dei lavoratori che si imboscano:

Ves W q (Ves Vu ) e

dove (Ves Vu ) la perdita di utilit che si subisce se si viene scoperti. Ovviamente,


trattandosi dellutilit di chi si imbosca, poniamo e = 0. Dunque, riarrangiando,
possiamo scrivere:

Ves W qVes qVu

Ves qVes W qVu .

W qVu
Ves
1 q
35

Passiamo ora alla descrizione della utilit del lavoratore che non si imbosca. Essa data
dal salario meno lo sforzo, che in tal caso positivo:

Ven W e

I lavoratori decideranno di impegnarsi solo se Ven Ves , per cui:

W qVu W q
W e W Vu e
1 q 1 q 1 q
W q
W Vu e
1 q 1 q
1 q
1 W Vu e
1 q 1 q
q q
W Vu e
1 q 1 q

Da cui:

1 q
(1) W Vu e W *
q

Lequazione (1) chiarisce che il salario W erogato dallimpresa deve essere maggiore o
al limite uguale al vincolo descritto. Limpresa non pu scendere al di sotto di esso se
vuole che i lavoratori si impegnino. Ponendo il vincolo con segno di stretta uguaglianza
si ottiene dunque il salario W* minimo necessario per indurre i lavoratori a impegnarsi e
non imboscarsi.

Passiamo ora dallanalisi della singola impresa allanalisi dellequilibrio del mercato. Si
ha equilibrio del mercato quando le imprese offrono un livello di W tale da essere certe
che Ve Ven , cio che i lavoratori non si imboschino. Fissando questa condizione di
equilibrio, possibile determinare lutilit dei disoccupati Vu , che ci consentir poi di
ottenere un valore certo del salario minimo W*. Lutilit dei disoccupati data dal
sussidio di disoccupazione pi la probabilit per i disoccupati di trovare un nuovo
lavoro moltiplicata per il guadagno che scaturirebbe dal passaggio da uno stato di
disoccupazione a uno di occupazione:

Vu W a(Ve Vu )

Poich lequilibrio corrisponde a una situazione in cui le imprese fisano un salario tale
che lavoratori si impegnino, allora: Ve Ven . Ma allora possiamo scrivere che:
Ven W e . Di conseguenza, sostituendo, avremo:
36

Vu W a (W e Vu )

Vu W a (W e) aVu

(1 a )Vu W a (W e)

W a (W e)
Vu
1 a

Possiamo ora sostituire il valore di Vu nella equazione (1) del salario minimo necessario
affinch i lavoratori non si imboschino. Avremo:

W a(W e) 1 q
W e
1 a q

A questo punto effettuiamo una serie di passaggi per determinare W:

1 +

+
1+ 1+

1 +

(1 ) +
1+ 1+

1
1+
( ) +
1+ 1+ 1+

(1 + )(1 + )
+

(1 + )(1 + )
+[
]

(1 + )(1 + )
+[
]

Da cui:

1++
(2) +(
) =

Lequazione (2) impone un vincolo al salario di equilibrio a livello di mercato. Tale


salario W dovr essere maggiore o al limite uguale al salario minimo W* necessario per
37

indurre i lavoratori a impegnarsi. Si noti che il salario minimo W* aumenta, e vincolo si


fa pi stringente, se avvengono i seguenti fatti:

- se aumenta il sussidio di disoccupazione


- se aumenta lo sforzo lavorativo e
- se diminuisce la probabilit q che un lavoratore imboscato venga scoperto
- se aumenta la probabilit a di trovare un impiego

Lequazione (2) chiarisce anche il significato del titolo dellarticolo di Shapiro e


Stiglitz. Essa infatti evidenzia che il salario minimo W* deve aumentare se aumenta la
probabilit a di trovare un impiego. Il motivo semplice: se i lavoratori notano che
relativamente facile trovare un nuovo lavoro, allora avranno meno timore di essere
scoperti e licenziati e quindi tenderanno pi facilmente a imboscarsi. Ora, la probabilit
a dipende in modo inverso dal tasso di disoccupazione u del mercato: una
disoccupazione alta riduce la probabilit di trovare un nuovo impiego, e quindi induce i
lavoratori a impegnarsi e non imboscarsi. In tal senso, come dicono Shapiro e Stiglitz, la
disoccupazione un fattore disciplinante.

Inoltre, visto che la probabilit di trovare un nuovo impiego dipende in modo inverso
dalla disoccupazione, allora si pu scrivere a = a (u) nellequazione (2). In tal caso
lequazione pu essere intesa come un possibile sostituto della curva del salario reale
richiesto dai lavoratori, che caratterizza il modello di Blanchard. Nel caso in cui
non sussista una contrattazione sindacale infatti pi difficile giustificare una curva del
salario rivendicato dai lavoratori. In tal caso pu essere allora utile sostituirla con
lequazione (2), che diventa la curva del salario minimo necessario per indurre i
lavoratori a non imboscarsi. Intersecandola con la consueta curva del salario reale
offerto dalle imprese di Blanchard, si ottiene cos un altro criterio per determinare il
tasso di disoccupazione naturale un. Questo dipender, tra laltro, dalla posizione della
curva del salario minimo per indurre i lavoratori a non imboscarsi, che a sua volta
, e, q.
dipende dalle variabili

W/P

A/(1 + )

, e, q]
W* [a(u),

un u
38

Come fare allora per fare abbassare la curva W* in modo da ridurre il tasso di
disoccupazione di equilibrio? Una soluzione ridurre il sussidio di disoccupazione,
oppure aumentare il monitoraggio sui lavoratori in modo da aumentare la probabilit
di scoprire gli imboscati. In questi casi la curva W* trasla in basso e quindi la
disoccupazione di equilibrio si riduce, riducendo cos anche il numero dei disoccupati
involontari. Si tenga presente, per, che questo risultato non pu verificarsi
semplicemente tramite una competizione salariale al ribasso dei disoccupati involontari.
Il meccanismo dellunderbidding non funziona. Occorre invece che le imprese
aumentino i controlli interni, oppure necessario ridurre i sussidi in modo da rendere la
disoccupazione pi gravosa e quindi pi disciplinante.

Si noti un ultimo aspetto teorico. Il modello insider-outsider escludeva lunderbidding a


causa della presenza di una serie di imperfezioni di mercato, come lesistenza di costi
di licenziamento che rendono difficile la sostituzione dei lavoratori e che dunque
bloccano lunderbidding. Il modello dei salari di efficienza, invece, in ultima istanza si
basa su una asimmetria informativa, che impedisce alle imprese di scoprire
immediatamente tutti i lavoratori che si imboscano. Lindividuazione degli imboscati
costituisce infatti solo una probabilit, non una certezza, ed questo il fenomeno che
spiega i risultati del modello e gli ostacoli allunderbidding.

2.4 Una critica ai modelli mainstream del mercato del lavoro

I modelli del mercato del lavoro che abbiamo descritto ci aiutano a capire in che modo
le imperfezioni di mercato e le asimmetrie informative fanno s che lequilibrio naturale
del modello macroeconomico di Blanchard sia caratterizzato da disoccupazione
involontaria. Addirittura, la versione di questi modelli che studia listeresi chiarisce che
lo stesso equilibrio naturale, in casi estremi, pu perdere di rilevanza. I risultati
conseguiti sono importanti, ed hanno inciso molto sul dibattito di teoria e politica del
lavoro degli ultimi anni. Essi tuttavia dipendono da una serie di complicazioni, come le
imperfezioni e le asimmetrie, che si aggiungono al modello macroeconomico
mainstream ma che non ne modificano le caratteristiche di fondo. Potremmo dire, in
sostanza, che questi modelli offrono delle interpretazioni pi approfondite dellanalisi
mainstream del mercato del lavoro, e quindi anche dei fondamenti della curva di offerta
aggregata AS del modello macroeconomico di Blanchard.

Altri economisti, come noto, hanno invece avanzato contestazioni pi radicali al


modello mainstream di Blanchard. Dalle analisi delle scuole di pensiero critico, per
esempio, possibile derivare in campo didattico una critica al markup esogeno o alla
forma decrescente della curva AD di Blanchard. Da tali critiche possibile trarre la
conclusione che la distribuzione del reddito pu essere modificata dalle pressioni
salariali, e che la domanda aggregata di merci pu incidere sui livelli di produzione e
occupazione, e quindi anche sul tasso di disoccupazione, non solo nel breve periodo ma
anche nel lungo periodo. Il concetto di equilibrio, insomma, non pi indipendente
dai rapporti di forza tra le classi sociali o dalla domanda effettiva di merci. Il
concetto stesso di equilibrio naturale, dunque, perde di significato.
39

Un interrogativo che ci si pu porre, allora, il seguente: le obiezioni che gli esponenti


dellapproccio critico rivolgono al modello di Blanchard, incidono pure sugli esiti dei
modelli mainstream del mercato del lavoro? La risposta affermativa. Tutti e tre i
modelli esaminati, infatti, rimangono ancorati al concetto mainstream di equilibrio
naturale. Nel modello insider-outsider le imprese scelgono il numero ottimale di
lavoratori insider e outsider da occupare senza badare minimamente alla possibilit che
la produzione Y(N) ottenuta possa non trovare sbocchi sul mercato. Nel modello dei
salari di efficienza (sia pure in termini pi complessi rispetto al caso standard del
modello AS-AD di Blanchard) lequilibrio del mercato del lavoro determina comunque
la disoccupazione naturale che, come noto, del tutto indipendente dalla domanda
effettiva di merci. Infine, nel caso del modello di isteresi, in effetti lequilibrio naturale
pu perdere rilevanza: anche nel lungo periodo il tasso di disoccupazione pu risultare
dipendente dalle fluttuazioni della domanda di merci, magari generate da decisioni di
politica monetaria. Ma questo, si badi bene, solo un risultato estremo, che si verifica
sotto lipotesi limite che gli insiders abbiano un potere assoluto sulla contrattazione.
Appena questa ipotesi viene modificata, il modello converge nuovamente verso
lequilibrio naturale, sia pure magari con lentezza.

E chiaro allora che le contestazioni dellapproccio critico allequilibrio naturale


possono incidere profondamente su questi modelli. Riguardo al modello insider-outsider
e al modello dei salari di efficienza, limportanza attribuita alla domanda di merci mette
subito in discussione i livelli di produzione e di disoccupazione di equilibrio. Riguardo
poi al modello di isteresi, se si accetta lapproccio critico allora la AD decrescente e il
markup esogeno vengono rifiutati. Ma questo implica una critica ai fondamenti stessi
delle equazioni (2) e (3) del modello di isteresi. Le obiezioni che lapproccio critico
rivolge al modello standard di Blanchard, dunque, modificano anche le conclusioni dei
modelli mainstream del mercato del lavoro.

2.5 La curva di Beveridge

Nei dibattiti di politica del lavoro si fa spesso riferimento alla cosiddetta curva di
Beveridge. La curva descrive una regolarit empirica segnalata per la prima volta nel
1942 dalleconomista britannico William Beveridge, e in seguito riscontrata da molti
altri economisti. Il nesso statistico tra il tasso di disoccupazione e il tasso di posti
vacanti, dove questultimo indica il numero di casi in cui le imprese cercano lavoratori
ma non li trovano. Definendo il numero di lavoratori disoccupati con U, il numero di
posti di lavoro vacanti con V, il numero di lavoratori occupati con N e la forza lavoro
disponibile con L = U + N, possibile definire il tasso di disoccupazione con u = U/L e
il tasso di posti vacanti con v = V/L. Assumendo che sia un parametro esogeno
maggiore di zero, la relazione statistica pu essere descritta dalla seguente equazione:
= uv, da cui:

= /

Dato il parametro , possiamo dunque tracciare una relazione inversa tra le due variabili.
La relazione descrive innanzitutto gli effetti del ciclo economico sul mercato del
40

lavoro. In fasi di recessione, la domanda di lavoro da parte delle imprese bassa, per
cui il tasso di disoccupazione elevato mentre il tasso di posti vacanti basso. In fasi di
espansione, invece, le imprese aumentano la richiesta di lavoratori e quindi il tasso di
disoccupazione si riduce mentre il tasso di posti vacanti tende ad aumentare. Il ciclo di
recessioni ed espansioni pu quindi essere descritto da movimenti lungo la curva di
Beveridge: per esempio, osservando il grafico, la combinazione v0, u0 corrisponde a una
fase di espansione, mentre la combinazione v1, u1 corrisponde a una recessione.

u0

u1

v0 v1 v1 v

La curva di Beveridge, tuttavia, pu anche spostarsi. Per esempio, se il parametro


aumenta da a >, allora la curva trasla verso destra. Ci significa che per ogni dato
tasso di disoccupazione, ad esempio u1, il tasso di posti vacanti aumenta da v1 a v1. Uno
spostamento del genere stato in genere interpretato come un indice di inefficienza
delle istituzioni del mercato del lavoro, e in particolare dei meccanismi istituzionali che
dovrebbero favorire il matching, ossia lincontro, tra domanda e offerta di lavoro. Un
parametro pi elevato indicherebbe che i meccanismi di matching non stanno
funzionando, e che quindi leconomia si ritrova nel paradosso di un numero maggiore di
posti vacanti in rapporto ai disoccupati. Tra gli economisti mainstream questo fenomeno
viene spiegato in vari modi: mancato funzionamento delle agenzie del lavoro che
rende linformazione scarsa o asimmetrica, oppure anche un livello troppo alto di
sussidi di disoccupazione, che induce i disoccupati ad essere troppo choosy, cio
selettivi, nella fase di ricerca di un lavoro.

Uno spostamento della curva di Beveridge verso destra si verificato, ad esempio,


durante la grande recessione che ha colpito gli Stati Uniti e gran parte del mondo nel
2009. In quel periodo abbiamo infatti assistito a un forte incremento dei disoccupati, ma
anche a un moderato aumento dei posti vacanti. Alcuni esponenti politici hanno
interpretato questo fenomeno come un sintomo del fatto che i problemi non derivavano
tanto dalla recessione, quanto piuttosto da un livello troppo alto dei sussidi esistenti. In
realt questa interpretazione forzata. In quel periodo, negli Stati Uniti, laumento dei
disoccupati fu molto maggiore dellaumento dei posti vacanti, il che sta ad indicare che
la recessione fu molto pesante, e che lo spostamento lungo la curva spiega i mutamenti
41

delle variabili pi dello spostamento della curva. In secondo luogo, gli aumenti del
parametro e i relativi spostamenti della curva di Beveridge potrebbero essere spiegati
anche da fattori diversi rispetto al livello dei sussidi o al cattivo funzionamento delle
agenzie del lavoro. Per esempio, soprattutto quando si attraversano pesanti recessioni, si
assiste pure a un cambiamento nella struttura produttiva di un paese. Molte imprese
falliscono e interi settori tendono a ridimensionarsi, ma qualche altro settore potrebbe
trovarsi con lesigenza di nuove assunzioni, magari con competenze specifiche (per
descrivere queste trasformazioni strutturali - che spesso si verificano nelle fasi di crisi
economica - leconomista Joseph Schumpeter parlava di distruzione creatrice). Per
esempio, il settore della finanza e delle assicurazioni pu perdere molti posti di lavoro,
mentre il settore della carpenteria specializzata potrebbe al tempo stesso trovarsi con
una esigenza di operai qualificati. In questi casi si presenta un problema di competenze.
Pertanto pu essere difficile la ricollocazione immediata dei disoccupati, e quindi si pu
registrare un piccolo aumento di posti vacanti in concomitanza di un forte aumento della
disoccupazione.

2.6 Sussidio di disoccupazione e salario minimo

I modelli neoclassici e i modelli mainstream del mercato del lavoro tendono a valutare
negativamente i sussidi di disoccupazione, vigenti sotto varie forme in molti paesi. Nei
modelli neoclassici di Pigou e di Prescott, per esempio, lesistenza di un sussidio ai
disoccupati pu indurre i lavoratori a preferire maggiormente il tempo libero al lavoro.
La curva di offerta di lavoro pu quindi farsi pi ripida, il che riduce loccupazione e la
produzione di equilibrio naturale. Nel modello di Blanchard, il sussidio di
disoccupazione accresce il parametro di conflittualit z e determina quindi una
traslazione in alto della curva del salario reale richiesto. Il risultato, in equilibrio, che
il salario reale non muta ma la disoccupazione naturale aumenta, e loccupazione e la
produzione naturale si riducono. Anche nel modello di isteresi lesistenza di un sussidio
dovrebbe tradursi in una maggiore tendenza rivendicativa dei lavoratori, e quindi in un
aumento del salario monetario e dei prezzi; a parit di moneta, ci dovrebbe comportare
una maggiore disoccupazione, almeno temporanea. Fenomeni simili si verificano nel
modello dei salari di efficienza, dove un aumento del sussidio spinge verso lalto la
curva del salario minimo W* necessario per indurre i lavoratori a impegnarsi il che,
ancora una volta, accresce la disoccupazione naturale.

In genere i modelli neoclassici e mainstream esprimono anche una valutazione critica


nei confronti delle leggi che vietano la stipula di contratti di lavoro al di sotto della
soglia di un salario minimo. Norme di questo tipo vigono attualmente in Francia e in
alcuni altri paesi. Le analisi differiscono a seconda che si tratti di un livello minimo del
salario monetario oppure reale. Nel modello neoclassico, lesistenza di un salario reale
minimo provoca un effetto simile alla presenza del sindacato, nel senso che pu
bloccare il sistema economico in un punto di squilibrio caratterizzato da disoccupazione
involontaria. Nel modello mainstream di Blanchard, un salario monetario minimo pu
impedire che il sistema economico, dopo una crisi, converga spontaneamente verso
lequilibrio naturale tramite una deflazione. Nel medesimo modello, limposizione di un
salario reale minimo pu generare un conflitto permanente tra salario imposto per legge
42

e salario offerto dalle imprese, con una conseguente tendenza alla crescita
dellinflazione. Nel modello dei salari di efficienza, se il salario minimo imposto per
legge inferiore al salario W* necessario per indurre i lavoratori a non imboscarsi,
allora la legge sul salario minimo non ha alcun effetto. Se invece il salario minimo
fissato dalla legge maggiore di W*, allora il risultato sar un aumento della
disoccupazione naturale.

Stando invece alle analisi delle scuole di pensiero critico, quali possono essere gli effetti
dei sussidi di disoccupazione e delle leggi sul salario minimo? Una risposta preliminare,
che tiene conto delle semplificazioni di un testo didattico, che lapproccio critico
avanza delle obiezioni al legame stringente tra dinamica dei salari e livelli di
occupazione che solitamente caratterizza le analisi neoclassiche e mainstream. Per gli
economisti critici, dunque, il salario minimo e il sussidio di disoccupazione possono
determinare degli effetti sui redditi dei lavoratori, e pi in generale sui rapporti di forza
tra la classe lavoratrice e la classe dei capitalisti proprietari. Ma difficile dire se e in
che modo tali effetti possano avere ripercussioni sulla produzione e sulloccupazione. In
altri termini, mentre i neoclassici e gli studiosi del mainstream ritengono che gli effetti
su queste variabili siano in genere negativi, gli economisti critici ammettono varie
possibilit, inclusa quella di un aumento delloccupazione. E il caso, questo, in cui il
salario minimo e il sussidio di disoccupazione rafforzano la posizione contrattuale dei
lavoratori, accrescono la dinamica dei salari reali e, per questa via, contribuiscono ad
aumentare la propensione al consumo, il moltiplicatore e quindi la domanda di merci, la
produzione e le relative assunzioni. Alcuni economisti di orientamento critico, inoltre,
sostengono che i sussidi e il salario minimo possono aiutare a fronteggiare meglio
una crisi economica. I sussidi consentono di ridurre le fluttuazioni della domanda di
consumi da parte dei lavoratori, il che riduce leffetto moltiplicativo della crisi. E il
salario minimo, ostacolando la deflazione, consente di contrastare quei fenomeni di
deflazione da debiti che, come viene descritto nellAnti-Blanchard, possono determinare
una AD crescente e aggravare ulteriormente la crisi.
43

III
POLITICHE STRUTTURALI

Per politiche strutturali si intendono quei provvedimenti che modificano il quadro


istituzionale di fondo nel quale le imprese operano. Sono politiche strutturali quelle
misure che incidono sulla competizione tra le imprese, orientando il sistema economico
verso uno dei due estremi tipici della concorrenza e del monopolio. Inoltre, pi in
generale, possono rientrare nel novero delle politiche di struttura quelle che muovono
il sistema nella direzione del libero mercato o della pianificazione pubblica dei processi
produttivi.

3.1 Concorrenza perfetta contro monopolio

Esaminiamo in primo luogo il problema classico del confronto tra regimi di concorrenza
e regimi di monopolio. A tale scopo, utilizzeremo gli strumenti standard della teoria
neoclassica. Sul grafico seguente, sono rappresentati lequilibrio di un mercato di
monopolio ed anche lequilibrio di un mercato di concorrenza perfetta.

p,
CM,
CMG
H
CMG

B CM
c
p*
p C
F
A
E
D
RMG

O Q* Q

Supponiamo che sia il monopolista, sia le imprese in concorrenza perfetta, abbiano le


stesse funzioni di costo e la stessa funzione di domanda del mercato. Il punto di ottimo
E rappresenta lequilibrio ottimo del monopolista. Esso determinato dall'intersezione
del costo marginale CMG e del ricavo marginale RMG e individua la quantit prodotta
ed offerta che consente di massimizzare il profitto dellimpresa in monopolio. Il
massimo profitto coincide con l'area rettangolare p*BFA che la differenza tra i ricavi
44

totali p*BQ*O e i costi totali AFQ*O. da notare che il surplus del consumatore
HBp*.

Se il mercato fosse di concorrenza perfetta, invece, lequilibrio corrisponderebbe al


punto C, dato dallintersezione tra la domanda e il costo marginale CMG, che in regime
di concorrenza coincide con lofferta di beni. In concorrenza i consumatori
pagherebbero un prezzo pc pari al CMG di produzione in cambio di una quantit Q*
corrispondente all'ascissa del punto C. Il surplus dei consumatori in tal caso larea del
triangolo CpcH.

Determiniamo i due equilibri anche in termini algebrici. Supponiamo che la funzione di


costo totale delle imprese siano esse in monopolio o in concorrenza perfetta sia pari
a CT = 10 + (3/2)Q2, per cui il costo marginale sar CMG = dCT/dQ = 3Q.
Supponiamo inoltre che la funzione di domanda di mercato del bene esaminato sia pari
a Q = 100 2P, da cui P = 50 (1/2)Q.

Il ricavo totale del monopolista dunque pari a RT = PQ = [50 (1/2)Q]Q = 50Q


(1/2)Q2, da cui traiamo pure il ricavo marginale: RMG = dRT/dQ = 50 Q. Imponiamo
la condizione del primo ordine per lindividuazione della quantit che massimizza il
profitto del monopolista: RMG = CMG, ossia 50 Q = 3Q, da cui Q = 12,5. Il prezzo a
cui il monopolista potr vendere tale quantit ottima sar quindi P = 50 (1/2)(12,5) =
43,75. Nel caso del monopolio, dunque, il profitto totale sar dato da = RT CT =
(43,75)(12,5) [10 + (3/2)(12,5)2] = 546,875 244,375 = 302,5. Infine, larea del
surplus dei consumatori sar data da [(50 43,75) x 12,5]/2 = 39,06.

Lequilibrio di mercato del totale delle imprese in concorrenza perfetta corrisponde


invece a P = CMG. In questo caso, per, non stiamo esaminando lequilibrio della
singola impresa concorrenziale e quindi il prezzo non esogeno ma va determinato in
funzione della domanda di mercato. Inoltre, il costo marginale non si riferisce alla
singola impresa ma al complesso delle imprese sul mercato, per cui esso corrisponde
allofferta di mercato. Eguagliando dunque prezzo e costo marginale otteniamo la
quantit ottima che eguaglia domanda di mercato e offerta di mercato in corrispondenza
del massimo profitto delle imprese che operano in esso: 50 (1/2)Q = 3Q, da cui 7/2Q
= 50 e dunque Q = 14,285. Il prezzo di mercato al quale tale quantit potr essere
venduta sar quindi P = 50 (1/2)(14,285) = 42,85. Nel caso della concorrenza
perfetta, dunque, il profitto totale di tutte le imprese sar = RT CT = (42,85)(14,285)
[10 + (3/2)(14,285)2] = 612,112 316,091 = 296,021. Infine, larea del surplus dei
consumatori sar data da: [(50 42,85) x 14,285]/2 = 51,06.

Confrontiamo il punto E di monopolio e il punto C di concorrenza perfetta,


paragonando anche i rispettivi valori di equilibrio ottenuti dallesercizio algebrico.
Rispetto al caso di un mercato di concorrenza perfetta vediamo che il monopolista
1) produce meno, 2) vende ad un prezzo pi alto, 3) gode di un profitto superiore,
4) riduce il surplus dei consumatori.

Per tutti questi motivi alcuni neoclassici ritengono che il monopolio danneggi
l'economia e che vada quindi contrastato con leggi anti-trust o politiche di
liberalizzazione che facilitino laccesso al mercato di eventuali concorrenti. Altri
45

studiosi di orientamento marxista sostengono invece che la liberalizzazione dei mercati


pu favorire la concorrenza solo nel breve termine, ma nel lungo periodo proprio
lintensificazione della competizione tende a far prevalere i pi forti, il che favorisce
nuovi fenomeni di monopolizzazione dei mercati e di centralizzazione dei capitali. Altri
ancora, ispirati dalle analisi di Joseph Schumpeter, ritengono che la stessa idea di
inefficienza del monopolio vada contestata: a loro avviso, infatti, proprio la capacit di
guadagnare profitti extra consente allimpresa monopolista di favorire linnovazione
tecnologica grazie a massicci investimenti nelle attivit di ricerca e sviluppo, che per la
loro rischiosit e onerosit sono preclusi alle imprese in concorrenza perfetta.

3.2 Oligopolio: il modello di Cournot

L'impresa in concorrenza perfetta e l'impresa monopolistica presentano una


caratteristica comune: non si pongono problemi di strategia, cio problemi nei quali le
azioni di ognuno dipendono anche da ci che si prevede che facciano gli altri. Il
problema della strategia e del connesso rapporto tra azioni e reazioni dei vari soggetti in
campo diventa invece fondamentale nel caso in cui il mercato sia caratterizzato da una
situazione di oligopolio, cio di poche grandi imprese.

Numerosi sono i modelli che consentono di analizzare il comportamento delle imprese


oligopoliste. Qui analizzeremo il modello di Cournot.

Il modello di Cournot (1838) descrive unindustria oligopolistica caratterizzata dalla


presenza di poche imprese che producono un bene omogeneo. Il problema strategico
consiste nel fatto che per massimizzare il proprio profitto ciascuna impresa deve
decidere la quantit del bene da produrre e da offrire tenendo conto della quantit
prodotta dalle altre imprese sul mercato.

Un esempio pu aiutare a chiarire i termini della questione. Supponiamo di trovarci in


una situazione di duopolio, vale a dire il caso pi semplice di industria oligopolistica in
cui operano solo due imprese, i e j, che producono lo stesso bene x. Supponiamo che la
domanda complessiva di questo bene sul mercato sia data dalla funzione:

p = 6 (xi + xj)

Supponiamo pure che la funzione del costo totale di produzione del bene, identica per
ciascuna delle due imprese, sia:

ci = 1 + xi

cj = 1 + xj

Il profitto di ciascuna impresa dunque dato dalla differenza tra ricavo totale e costo
totale, ossia:

i = (6 xi xj)xi 1 xi
46

j = (6 xi xj)xj 1 xj

La condizione del primo ordine per lindividuazione del massimo profitto richiede,
come sappiamo, che si ponga uguale a zero la derivata del profitto rispetto alla quantit.
Effettuiamo questo passaggio per entrambe le imprese:


= 6 1 = 0


= 6 1 = 0

Da cui, con semplici passaggi, si ottiene:

xi = (5 xj)/2

xj = (5 xi)/2

Queste sono le funzioni di risposta ottima di ciascuna impresa, data la scelta


produttiva dellaltra impresa. Sostituendo la seconda espressione nella prima,
otteniamo:

xi = [5 (5 xi)/2]/2

Con pochi passaggi da questa espressione si ricava la quantit ottima per limpresa i,
corrispondente a: xi = 5/3. Sostituendo questo valore nella funzione di risposta ottima
dellimpresa j si ottiene la quantit ottima di questultima, che pure corrisponde a xj =
5/3 (luguaglianza ovvia, dato che per ipotesi le due imprese hanno la stessa
tecnologia e quindi anche la stessa funzione di costo). Le quantit ottime, cos ottenute,
corrispondono al cosiddetto equilibrio di Cournot.

Una volta note le quantit ottime si pu calcolare il prezzo di equilibrio del mercato,
corrispondente a p = 6 (5/3 + 5/3) = 8/3. Inoltre, note le quantit ottime si pu anche
determinare il valore del profitto ottimo dellimpresa i, che sar dato da: i = (6 5/3
5/3)5/3 1 5/3 = 16/9. Lo stesso profitto, ovviamente, sar guadagnato anche
dallimpresa j.

Si pu dimostrare che lequilibrio di Cournot, cos determinato, genera un profitto


inferiore a quello che le due imprese otterrebbero se si accordassero sulle quantit da
produrre. In altre parole, i due oligopolisti potrebbero realizzare una collusione, detta
anche cartello. Tramite laccordo collusivo esse potrebbero agire come ununica
impresa monopolista, che produce complessivamente di meno e vende a un prezzo pi
alto. Il profitto complessivo sarebbe dunque maggiore, e le due imprese potrebbero poi
spartirselo ottenendo un risultato migliore rispetto al caso delloligopolio non collusivo
rappresentato dallequilibrio di Cournot. Per provare questo risultato basta risolvere il
problema di massimo profitto come se sul mercato ci fosse un unico monopolista. In tal
caso la domanda data da p = 6 x e il costo totale dellimpresa sempre c = 1 + x.
47

Il ricavo totale quindi dato da

px = (6 x)x = 6x x2

e il profitto totale, dato dalla differenza tra ricavo totale e costo totale, :

= 6x x2 1 x = 5x x2 1

Imponendo la condizione del primo ordine per lindividuazione del massimo profitto
d/dx = 0 otteniamo:

5 2x = 0

da cui si trae la quantit ottima totale x = 5/2. Il prezzo di equilibrio sar quindi dato da
p = 6 5/2 = 7/2. Ora sostituiamo la quantit ottima nella equazione del profitto: =
5x x2 1, da cui otteniamo il profitto ottimo totale = 21/4.

A questo punto, supponiamo che le imprese colluse dividano in parti uguali quantit e
profitti. Quindi, dividendo per due la quantit ottima totale possiamo calcolare la
quantit ottima di ciascuna impresa: xi = xj = (5/2)/2 = 5/4. Infine, dividendo per due il
profitto totale ottimo possiamo determinare il profitto ottimo per ciascuna impresa: i =
j = (21/4)/2 = 21/8.

Rispetto allequilibrio non collusivo di Cournot, il cartello tra le due imprese consente
dunque di produrre una quantit totale inferiore a un prezzo superiore, e assicura dunque
un profitto pi elevato a ciascuna impresa. Questo uno dei motivi per cui si ritiene
che i cartelli debbano essere vietati dalla legge.

3.3 Mercato versus pianificazione pubblica

Lespressione piano viene solitamente associata allesperienza storica dellUnione


sovietica e dei paesi del cosiddetto blocco socialista, racchiusa nellarco di tempo che
va dalla rivoluzione bolscevica del 1917 al caduta del Muro di Berlino del 1989. Il
termine piano, tuttavia, pu in realt significare molte cose. Durante la prima crisi
petrolifera, furono addirittura gli Stati Uniti ad essere investiti da un grande dibattito
sulla pianificazione, a seguito delle proposte avanzate al Congresso americano dal
Comitato per la Pianificazione Nazionale costituito da numerosi esponenti politici,
dellindustria, dei sindacati dei lavoratori e guidato dal premio Nobel per leconomia
Wassily Leontief. Naturalmente, non di pianificazione sovietica si discuteva. Il
discorso sulla propriet e sul controllo dei mezzi di produzione, in particolare, rima-
neva per pi di un verso contraddittorio. Tuttavia, in ogni snodo di quella discussione
pareva sussistere un punto fermo, largamente condiviso tra i partecipanti, che verteva
sul convincimento comune della insufficienza delle sole manovre monetarie e fiscali
anti-cicliche di tipo keynesiano per uscire dalla crisi. Leontief si spese in quella
occasione su un tema cruciale: egli chiamava tutti a prendere atto dellesistenza di
fallimenti nel sistema dei prezzi di mercato almeno tanto gravi quanto quelli caratte-
rizzanti lattivit statuale, e invitava per questo motivo a interrogarsi sulla possibilit di
48

ridefinire ed eventualmente ampliare lo spazio della decisione politica in merito a


quanto, come e cosa produrre.

Da l a qualche anno il corso degli eventi avrebbe preso una piega ben diversa da quella
auspicata da Leontief. Potremmo dire, in un certo senso, che proprio dalle difficolt di
attecchimento del discorso sulla pianificazione scatur e si fece largo quella opposta idea
di accumulazione del capitale fondata sul libero mercato e sulla finanza privata, la cui
forma politica venne rappresentata dalla Reaganomics e che avrebbe dominato la scena
mondiale per i successivi trentanni. Oggi, dopo la cosiddetta grande recessione del
2008, c chi rileva varie inefficienze e instabilit nel regime di accumulazione
capitalistica detto di libero mercato e trainato dalla finanza privata, e dunque
suggerisce di tornare al sentiero alternativo suggerito da Leontief per provare a
valutarne la potenziale attualit.

Lidea di recupero del piano nel senso di Leontief verte sulla rilevazione di alcuni
limiti nellattuale meccanismo di riproduzione sociale, in cui le autorit politiche, stato e
banca centrale, sono relegate in una funzione puramente ancillare rispetto ai mercati fi-
nanziari: quella di regolare le condizioni di solvibilit del sistema, che di fatto
significa agire da meri prestatori di ultima istanza per il capitale privato. La definizione
di un meccanismo di riproduzione sociale alternativo richiederebbe dunque in primo
luogo lattribuzione alle autorit politiche di una funzione logicamente contrapposta a
quella corrente: lo stato e la banca centrale dovrebbero cio ripristinare e ampliare
quella che Reinhart e Rogoff hanno definito una repressione dei mercati finanziari e
un pesante uso dei controlli dei capitali, che caratterizzarono leconomia mondiale del
secondo dopoguerra e che per circa un trentennio favorirono una stabilit
macroeconomica mondiale senza precedenti. Ma soprattutto, la repressione finanziaria
determinerebbe le condizioni logiche necessarie per inaugurare un nuovo regime, in cui
lautorit pubblica assuma il controllo della circolazione monetaria al fine di agire quale
creatrice di prima istanza di nuova occupazione. Di prima istanza, ossia non per fini di
mera assistenza, ma per la produzione di quelle basic commodities, e quei beni col-
lettivi, che maggiormente incidono sulle condizioni del progresso materiale e civile
della societ e che, proprio per ci, non dovrebbero esser lasciate alla logica
dellimpresa capitalistica privata.

I critici del piano insistono sullidea che esso si baserebbe eccessivamente sulla
burocrazia statale, e segnalano come questa dia luogo a tutta una serie di fallimenti
dello Stato. I fautori di un recupero in chiave aggiornata del tema della pianificazione
battono invece sulla tesi secondo cui i fallimenti del mercato sono pi gravi e pi
pervasivi di quelli che possono essere imputati allautorit statale. C poi una questione
ulteriore, di ordine civile e politico. I critici della pianificazione sono anche convinti che
le libert individuali siano tutelate solo da un regime di libero mercato, mentre i fautori
di un recupero della logica di piano ritengono che a date condizioni questa possa
favorire unespansione dei diritti sociali e per questa via crei pure le condizioni per un
maggior sviluppo delle libert civili. Il dibattito resta aperto.
49
50

IV
INTERPRETI DELLA POLITICA ECONOMICA

1 Tobin, un economista daltri tempi

Un intellettuale non incline al protagonismo e tuttavia pervasivamente influente. Con queste


parole, alcuni anni fa, Federico Caff valutava la figura di James Tobin, sottolineando il
suggestivo contrasto tra il carattere schivo e gentile delleconomista americano e la straordinaria
capacit dello stesso di incidere sul sentiero di sviluppo della ricerca economica. Un contrasto
che si era grandemente accentuato negli ultimi tempi, in seguito allascesa della Tobin tax sulla
ribalta della politica internazionale. Da essa il suo ideatore ha ricavato una notoriet sulla quale,
con garbo e senso della misura, ha sempre teso a ironizzare. Unautoironia graziosa che lo
rendeva, nellera del narcisismo debordante, un uomo daltri tempi, e che non fu mai spinta al
punto da pregiudicarne la passione civile e limpegno politico.
Tobin morto l11 marzo scorso nel Connecticut, allet di 84 anni. Il suo lascito
scientifico immenso, come testimoniato dal documento con cui lAccademia delle scienze
svedese gli confer, nel 1981, il premio Nobel per leconomia: Si pu dire che pochi
economisti contemporanei abbiano avuto, come lui, unanaloga influenza ispiratrice nella
ricerca economica. Del resto, la sua teoria sulle scelte di portafoglio, bench ormai vecchia di
mezzo secolo, rappresenta tuttora un punto di riferimento per buona parte dellanalisi
macroeconomica e finanziaria. Una possibile chiave di lettura dellimmensa produzione
scientifica di Tobin pu individuarsi nel convincimento, mutuato da Keynes, che la politica pu
e dovrebbe esercitare una grande influenza sulla dinamica dei sistemi economici. Nella versione
base della teoria di Tobin, le autorit di politica economica disporrebbero di ampi poteri, tali da
influenzare significativamente i livelli e la struttura dei rendimenti delle attivit finanziarie e dei
beni capitali esistenti in un dato paese. Attraverso opportune manovre espansive, le autorit non
solo sarebbero in grado di ridurre i tassi dinteresse e il connesso onere del debito pubblico, ma
potrebbero anche stimolare gli investimenti delle imprese private, e con essi loccupazione, la
produzione e la distribuzione dei redditi, sia nel breve che nel lungo periodo (il che la dice lunga
sui tentativi di volgarizzazione di Tobin quale mero fautore della politica di "stabilizzazione").
I notevoli poteri che la teoria macroeconomica di Tobin attribuiva alle autorit politiche
rendono il pensiero di questo autore di grande attualit. Tobin, in tal senso, ha sempre
vivacemente contestato lideologia delle "mani legate", in base alla quale lintervento politico in
economia sempre inutile, se non addirittura dannoso. Negli anni della controrivoluzione
monetarista e delle sue infelici applicazioni da parte di Ronald Reagan e di Margaret Thatcher,
Tobin polemizz con lucidit e pacatezza nei confronti della teoria su cui quegli esperimenti
politici pretendevano di fondarsi. Il bersaglio privilegiato di Tobin era una clausola
epistemologica di cui Friedman si fece portatore, in base alla quale i "costruttori di modelli
economici" verrebbero autorizzati a ritenere che le famiglie, le imprese e gli altri operatori
economici agiscono nel sistema come se stessero risolvendo complicatissimi problemi di
ottimizzazione. Questa concezione della "massaia che fa matematica", che sopravvive tuttora in
molte autorevoli sedi della cittadella accademica, venne sempre considerata da Tobin un
discutibile paravento per giustificare politiche reazionarie, sperequative, indifferenti nei
confronti della disoccupazione e della povert.
Naturalmente, le convinzioni di Tobin sulle potenzialit dellintervento politico
nelleconomia non gli impedirono mai di riconoscere i vincoli cui quellintervento poteva esser
sottoposto. Il suo modello originario, elaborato tra gli anni 50 e 60, rappresentava del resto il
funzionamento di un paese isolato dal resto del mondo. Con lespansione delle transazioni
51

internazionali, commerciali e soprattutto finanziarie, Tobin riconobbe la necessit di numerosi


adattamenti per la sua teoria, dai quali emersero ostacoli crescenti alle possibilit di intervento
pubblico. In particolare, la libera circolazione dei capitali rendeva spesso le autorit politiche
incapaci di modificare i livelli e la struttura dei tassi di rendimento delle attivit, dal momento
che in un paese aperto agli scambi internazionali quei tassi vengono determinati a livello
mondiale. Lidea della Tobin tax per lappunto nasce e si sviluppa in questo contesto. Con essa,
linventore si proponeva due obiettivi fondamentali, uno per cos dire moderato, laltro
decisamente pi ambizioso: stabilizzare il mercato dei cambi, riducendo la probabilit di fughe
di capitale irrazionali e perverse; ma soprattutto, ripristinare un certo grado di autonomia
nellazione di politica economica dei singoli paesi. Il primo risultato verrebbe conseguito in
base allidea che limposta rende costose le conversioni in valuta e quindi induce gli operatori a
ridurre il volume degli scambi speculativi internazionali. Il secondo risultato emerge dal fatto
che, scoraggiando i passaggi da una valuta allaltra, limposta costituirebbe una sorta di
cuscinetto fiscale tra i paesi, consentendo alle autorit politiche di differenziare, almeno in parte,
i rendimenti delle attivit scambiate allinterno rispetto a quelli prevalenti sui mercati mondiali.
La politica, grazie alla tassa, tornerebbe dunque a respirare: le possibilit di manovra
crescerebbero, e la spada di Damocle della fuga dei capitali allestero si allontanerebbe.
Negli ultimi mesi, influenti editorialisti nostrani hanno sostenuto che Tobin avrebbe
rinnegato la sua proposta di tassazione degli scambi valutari, considerandola ormai un inutile
retaggio del passato. Persino lautorevole Sole 24 Ore si di recente pronunciato in tal senso.
Ebbene, pur con tutti gli sforzi, non siamo riusciti a trovare una sola citazione di Tobin in grado
di confermare la "notizia". Al contrario, abbiamo potuto notare come, appena pochi mesi fa, egli
sia tornato a sostenere lassoluta validit teorica e la fattibilit pratica della sua proposta. Che si
sia trattato di un innocente disguido o di una vicenda degna dei migliori pugilatori a
pagamento, questo lo lasciamo decidere al lettore (14 marzo 2002).

2 Il vincolo di Tarantelli

Allinterno delle sue analisi, e in particolare nella sua opera principale, Ezio Tarantelli
fece riferimento ad un limite al di sotto del quale i sindacati e i lavoratori non possono
spingere il saggio di profitto nel regolare la matrice salariale. Il limite in questione
verteva sullidea secondo cui, dato un certo volume degli investimenti, il saggio di
profitto non pu scendere al di sotto del livello necessario a generare un ammontare
equivalente di risparmi e a garantire in tal modo il rispetto della condizione di equilibrio
macroeconomico (Economia politica del lavoro, cap. XIV, par. 5). Per lungo tempo
questa idea stata piuttosto in voga tra alcuni economisti della Cambridge britannica.
E interessante notare che essa stabilisce un vincolo alle rivendicazioni salariali che
almeno a prima vista si presenta come una anonima condizione di equilibrio, ossia
come una giustificazione puramente tecnica alla moderazione salariale che viene
depurata da qualsiasi riferimento alla configurazione capitalistica del sistema
economico e al carattere irriducibilmente antagonistico di essa. Sulla base di questo
costrutto teorico, il limite salariale al quale pure Tarantelli faceva riferimento si
presenta come un vincolo di compatibilit politicamente neutrale e quindi
apparentemente inesorabile.
Il richiamo a quel presunto vincolo, si badi, di fatto predetermina lintera
soluzione del sistema. Pensiamo ad esempio allidea di Tarantelli, riportata nellarticolo
citato, secondo cui il salario potrebbe comunque esser considerato una variabile
indipendente, purch tuttavia lo si veda non come costo del lavoro erogato dallimpresa
52

ma, pi in generale, come reddito disponibile al netto delle imposte e al lordo dei
trasferimenti e dei consumi e investimenti pubblici. Il problema di questa affermazione
che, se si considera il saggio di profitto dato dal suddetto vincolo delle condizioni di
equilibrio, allora risulta determinata anche la quota di prodotto che pu essere assorbita
dalla spesa sociale dello stato. Inoltre, considerato che il suddetto saggio di profitto di
equilibrio costituisce necessariamente un netto, nemmeno la tassazione potrebbe
fungere da strumento redistributivo tra le classi. La conseguenza che il riferimento di
Tarantelli al salario quale variabile indipendente, se messo nellangusto spazio teorico
da egli stesso creato, si riduce ad una sconfortante esortazione a finanziare la spesa
pubblica destinata ai lavoratori con quote di prodotto prelevate dagli stessi lavoratori.
E bene ricordare che il vincolo al quale Tarantelli e altri sottoponevano il salario in
realt basato su condizioni alquanto discutibili, come ad esempio lidea che il grado di
utilizzo delle attrezzature produttive non presenti deviazioni significative da un ipotetico
livello normale o che il rapporto tra spesa autonoma e reddito rimanga invariato nel
tempo. Ci sta ad indicare che proprio sul versante del conflitto distributivo la per altri
versi illuminante - analisi di Tarantelli era fondata su presupposti logico-politici
restrittivi e ampiamente contestabili. Il che, guarda caso, potrebbe dirsi anche della
politica dei redditi, che in tutti i modi si sta tentando, oggi come ieri, di far digerire ai
lavoratori (27 maggio 2005).

3 Graziani, teoria economica e classi sociali

Da domani e per due giorni lUniversit degli studi del Sannio di Benevento sar sede di
un convegno internazionale in onore di Augusto Graziani intitolato La teoria
monetaria della produzione: tradizioni e prospettive (gli atti del convegno sono stati
pubblicati nel volume a cura di G. Fontana e R. Realfonzo, The Monetary Theory of
Production. Tradition and Perspectives, Palgrave Macmillan 2005).
Nato a Napoli nel 1933, economista, gi senatore e membro dellAccademia nazionale
dei Lincei, Graziani ha acquisito una posizione di rilievo allinterno della comunit
scientifica internazionale per loriginalit e la vastit delle sue ricerche, dagli studi dei
primi anni 60 dedicati ai problemi del Mezzogiorno e del relativo sviluppo dualistico
italiano, alle interpretazioni definite conflittualiste della crisi e della ristrutturazione
degli anni 60 e 70, fino a giungere ai pi recenti contributi degli anni 80 e 90 volti
alla costruzione di uno schema di teoria monetaria della produzione dichiaratamente
alternativo allimpostazione neoclassica dominante (si veda in proposito il suo recente
The monetary theory of production, Cambridge University Press 2003). Tale schema
risulta epistemologicamente fondato su una suddivisione della collettivit in gruppi
sociali ben definiti, distinguibili essenzialmente in base alla possibilit o meno di
accedere al credito bancario. In tal senso appaiono evidenti i legami tra lelaborazione
di questo schema e il convincimento, pi volte espresso da Graziani, secondo cui se
ledificio neoclassico va respinto, esso va discusso nei suoi assunti iniziali, e cio
proprio nel momento in cui immagina che il capitalismo sia una societ senza classi,
piuttosto che esser giudicato nei soli termini della sua coerenza interna. Una
impostazione, questa, che a unattenta disamina potrebbe forse rivelare molte pi
affinit che divergenze con laltro grande filone di critica della teoria neoclassica
53

dominante: quello del surplus, o quantomeno con le interpretazioni dello stesso risalenti
al famoso saggio Sullideologia di Maurice Dobb.
Il terreno della ricerca non tuttavia lunico sul quale Graziani si cimentato.
Ad esso si affianca quello, non meno congeniale, della didattica. Graziani, infatti,
autore di due ben noti manuali di teoria economica, espressamente strutturati in modo
da sollecitare il lettore a un continuo, serrato raffronto critico tra la teoria neoclassica e
le teorie ad essa concorrenti. Tali manuali vengono oggi riconosciuti da vaste schiere di
studenti e di ricercatori quali straordinari esempi di chiarezza espositiva e di rigore
analitico, e soprattutto quali preziosi antidoti al processo di omologazione culturale che
nellultimo ventennio sembra aver guidato gli sviluppi della teoria economica e delle
sue applicazioni in campo politico.
Il grande pubblico, tuttavia, tender probabilmente ad associare il nome di
Graziani alla sua intensa attivit di commentatore delle pi scottanti e intricate vicende
della politica economica nazionale. Emblematiche ed attualissime risultano, al riguardo,
le pungenti critiche che egli rivolse alla pretesa dei governi degli anni 80 di spingere
lindustria italiana al potenziamento tecnologico attraverso una spregiudicata politica
del cambio forte. Come Graziani ebbe ad osservare, tale politica doveva per forza di
cose basarsi sul presupposto di lasciar correre linflazione interna a tassi superiori a
quelli europei. Se cos non fosse stato, infatti, il cambio forte non avrebbe rappresentato
una frusta per gli imprenditori italiani, e non li avrebbe quindi indotti a ristrutturare e ad
adottare il pugno di ferro con i sindacati. La lira forte e il lassismo nei confronti
dellinflazione interna contribuivano daltro canto ad alimentare il deficit commerciale
italiano, e spingevano quindi i governi a cercare un rimedio nellincremento dei tassi
dinteresse e nella conseguente importazione di capitali dallestero. Una politica che pi
volte Graziani consider fallimentare: una sorta di gioco di Ponzi che induceva le
autorit italiane a ripagare i debiti con altri debiti, e che ben presto si sarebbe rivelato
disastroso.
La crisi valutaria del 1992 rappresent lesito finale della crescente esposizione
debitoria verso lestero. Quella crisi, come noto, ricadde praticamente tutta sulle spalle
dei lavoratori. Graziani fece notare, in proposito, come la Banca dItalia avesse saputo
rispettare lordine di scendere in trincea e di sacrificare le riserve fino allultima
goccia in difesa della lira, accettando di assecondare la svalutazione solo dopo che il
governo ebbe ottenuto dai sindacati il ben noto, durissimo accordo sul costo del lavoro.
Lobiettivo era chiaro: prima di far cadere la lira sotto i colpi della speculazione le
autorit vollero essere ben sicure che quel tanto di inflazione che seguir alla
svalutazione trovi i sindacati totalmente inermi e privi di possibilit di reazione. Un
esempio tra i tanti, questo, della esigenza di favorire nuovamente lo sviluppo di una
teoria del capitalismo che non tenga pi nellombra, ma al contrario espliciti con
chiarezza, le prerogative e i vincoli delle diverse classi sociali (4 dicembre 2003).

4 Modigliani, lettere e scritti inediti

Caro Franco sono in procinto di rilanciare la proposta di pre-determinazione


dellinflazione. Come puoi comprendere sto ricevendo varie e forti pressioni per una
modifica anche parziale di questa impostazione ma non ho alcuna intenzione di
cambiare linea. Costi quel che costi ai miei rapporti col sindacato e fuori. In questo
54

spero che riconoscerai qualcuno dei tuoi insegnamenti. Cos scriveva Ezio Tarantelli in
una lettera al suo maestro Franco Modigliani, datata luglio 1983. Poche righe accorate,
e in un certo senso premonitrici di una delle pi tragiche e feroci pagine della storia
repubblicana: appena venti mesi dopo, infatti, Tarantelli sarebbe stato assassinato dalle
Brigate Rosse.
Il passo citato tratto dal bel libro a cura di Pier Francesco Asso: Franco
Modigliani. Limpegno civile di un economista, una raccolta di lettere private e di scritti
in buona parte inediti appena pubblicata in edizione limitata dalla Fondazione Monte dei
Paschi di Siena (e tra poco anche in libreria per i tipi di Protagon Editori). Il volume,
focalizzato sullattivit di Modigliani quale influente commentatore degli avvenimenti
politico-economici italiani, consente di esaminare le alterne fortune e vicissitudini
nazionali sotto una lente per molti aspetti inconsueta. Le riflessioni delleconomista
italo-americano, scomparso nel 2003, emergono infatti non soltanto dai numerosi
editoriali sulla situazione economica dellItalia, ma anche da una serie di intensi e
talvolta persino intimi scambi epistolari con alcuni tra i pi autorevoli protagonisti della
scena pubblica: Salvemini, Baffi, Andreatta, Fazio, Padoa-Schioppa e molti altri. Le
lettere rivelano spesso le inquietudini di personaggi i cui vissuti privati arriveranno pi
volte a intrecciarsi, talvolta in modo drammatico, con i fatti della storia. Emblematica in
questo senso appare la partecipazione intellettuale ed emotiva di Modigliani al travaglio
di Paolo Baffi durante laggressione giudiziaria ai vertici di Bankitalia, cos come le
riflessioni di Modigliani sulla opportunit di rinviare i suoi consueti viaggi in Italia nelle
fasi pi acute del terrorismo. Va ricordato infatti che fin dai tempi della sua critica
allaccordo del 1975 sul punto unico di contingenza e prima ancora del suo allievo
Tarantelli, egli stesso era stato individuato come un possibile bersaglio dei gruppi
eversivi. Altrettanto significativo appare poi quello che il curatore del volume definisce
nel suo saggio introduttivo il lungo silenzio di Modigliani: una fase in cui i massimi
riconoscimenti internazionali derivanti dalla conquista del Nobel nel 1985 si
verificheranno in concomitanza con una sofferta riduzione degli impegni e delle
collaborazioni in Italia, probabilmente indotta dallintensificarsi degli attentati.
Ma soprattutto sul piano dellanalisi politica che la lettura del volume risulta di
estremo interesse, sia per chi abbia nel corso degli anni condiviso la visione e le relative
proposte di Modigliani, sia e forse soprattutto per chi le abbia criticate e osteggiate. Le
ragioni di questo interesse vertono essenzialmente sul carattere ambivalente del pensiero
di Modigliani, sempre a met strada tra un anti-conflittualismo a tratti persino arcigno e
un riformismo di stampo keynesiano che toccava, in alcune circostanze, punte di
sorprendente radicalit. Questa doppia matrice politico-culturale ha del resto sempre
trovato un raffinato sostegno nellanalisi teorica di Modigliani, quella sintesi
neoclassica tesa allassorbimento delleresia keynesiana nellalveo del pensiero
ortodosso. In particolare, grande importanza in questa cornice teorica veniva assegnata
al rapporto tra quantit di moneta e livello del salario monetario. Questultimo, per
Modigliani, determinava in modo sostanzialmente univoco il livello generale dei prezzi,
data lipotesi di un mark-up (ossia un margine) fisso sul costo del lavoro o addirittura
crescente al crescere della produzione. Il rapporto tra moneta e salario indicava perci la
quantit di moneta espressa in termini di potere dacquisto, una grandezza che per
leconomista del MIT andava sempre collocata a livelli tali da garantire un andamento
soddisfacente della domanda effettiva, e quindi anche della produzione e
delloccupazione. Ecco dunque spiegata la fortissima avversione di Modigliani nei
confronti prima della Bundesbank e poi della nascitura Banca centrale europea,
55

colpevoli a suo avviso di praticare una politica monetaria eccessivamente restrittiva e di


impedire per questa via la riduzione degli elevati tassi di disoccupazione continentali.
Ma ecco spiegata anche lostilit di Modigliani nei confronti del conflitto e delle
rivendicazioni sociali. Il giusto compito dei sindacati e dei partiti della sinistra doveva
essere, al contrario, quello di assicurare che il salario non superasse un livello
compatibile con la massa monetaria esistente, ed inoltre che non generasse mai una
crescita dei prezzi tale da pregiudicare la competitivit delle merci nazionali e il relativo
equilibrio dei conti con lestero. Questa peculiare visione del ruolo della sinistra, che
tanti dubbi e polemiche suscit da pi parti, venne apertamente sostenuta da Modigliani
fin dagli anni 70: ne testimonianza un rapporto riservato sulla crisi economica italiana
commissionatogli nel gennaio 1976 dal Dipartimento di Stato americano e pubblicato
per la prima volta nel volume a cura di Asso. Nel documento Modigliani sostenne
apertamente lipotesi di ingresso del Partito comunista nelle compagini di governo. Si
trattava di una posizione controcorrente rispetto a quelle prevalenti
nellAmministrazione statunitense. Tuttavia secondo lautore essa era giustificata dalla
certezza che soltanto il PCI e la CGIL fossero in grado di convincere la classe
lavoratrice ad accettare la compressione del costo unitario del lavoro che egli reputava
indispensabile per riequilibrare i conti esteri e ridare fiato ai profitti. Questa opzione,
come noto, si sarebbe ben presto rivelata impraticabile, per luccisione di Moro e pi
in generale per le ramificate ostilit verso la politica di solidariet nazionale. Ma
Modigliani non cambi mai idea e diversi lustri dopo, pur in uno scenario internazionale
completamente mutato, le sue proposte giunsero a conquistare il centro della scena
politica italiana: dopo la crisi del 92 egli si ritrov infatti ad assumere il ruolo di
massimo ispiratore della stagione della concertazione, una linea di indirizzo fondata
sulla partecipazione della sinistra politico-sindacale al governo del paese e sul rigido
controllo della dinamica salariale.
Il successo delle tesi di Modigliani stato dunque eccezionale, sia sul piano
accademico che politico. Non sono tuttavia mancate critiche autorevoli e talvolta
durissime nei confronti dellimpianto teorico dal quale egli faceva scaturire le sue
proposte. In particolare, verso la fine degli anni 70 alcuni economisti di ispirazione
marxista e keynesiana, dichiaratamente scettici nei confronti della sua sintesi
neoclassica, puntarono il dito sullipotesi di un livello fisso o addirittura crescente del
mark-up rispetto al costo del lavoro. Una tale assunzione, si badi, d luogo a delle
importanti implicazioni politiche: essa infatti stabilisce che di norma, traducendosi
interamente in aumenti proporzionali dei prezzi, le rivendicazioni salariali siano
esclusivamente foriere di inflazione e di declino della produzione, e siano quindi da
ritenere inutili dal punto di vista distributivo e dannose sul piano occupazionale.
Secondo i critici, tuttavia, lipotesi di Modigliani non trovava alcun valido riscontro
empirico, data lestrema variabilit dei differenziali tra prezzi e salari. Sul piano teorico,
poi, lipotesi appariva come un vano tentativo di riabilitare il vecchio legame funzionale
neoclassico secondo cui loccupazione pu crescere solo a seguito di una riduzione del
salario reale; un legame che era stato radicalmente messo in discussione dalla critica di
Sraffa alla teoria neoclassica del capitale. Nella interpretazione dei critici, insomma, il
mark-up dato o crescente costituiva un postulato privo di valide giustificazioni, se non
quella di voler riaffermare il primato della dottrina delle compatibilit capitalistiche
sulla logica alternativa che vedeva nel conflitto sociale una prassi razionale e addirittura
potenzialmente virtuosa.
56

Il flame degli anni 70 tuttavia dur poco. Le critiche marxiste e keynesiane alla
sintesi, per quanto logicamente fondate, non riuscirono ad imporsi nel dibattito
teorico-politico e vennero ben presto messe ai margini. Basti notare, a questo riguardo,
che lipotesi di un mark-up dato trova ancora oggi largo seguito tra gli economisti del
mainstream neoclassico, e si pone addirittura alla base del manuale di macroeconomia
di Olivier Blanchard, uno dei pi venduti al mondo. Si pu con ci ritenere che nel
corso del tempo il pensiero di Modigliani abbia acquisito un tale consenso da costituire
oggi una indiscussa ortodossia? La risposta negativa. E questo non tanto per le mai
sopite critiche di parte marxista, quanto piuttosto per una certa distanza che sembra
essersi pian piano formata allinterno stesso del mainstream, tra limpianto concettuale
del maestro e le linee di indirizzo teorico-politico dei successori, inclusi alcuni dei suoi
ex allievi e seguaci. Questi ultimi sembrano infatti aver compiuto una sorta di
scrematura del pensiero delleconomista del MIT, aderendo in pieno al suo intransigente
anti-conflittualismo salariale, ma scartando la sua visione keynesiana del bilancio
pubblico. Un esempio in tal senso offerto ancora una volta da uno scambio epistolare:
quello del 1993 tra Modigliani e Padoa Schioppa, pubblicato anchesso nel volume a
cura di Asso e avente per oggetto la situazione del bilancio pubblico italiano.
Modigliani e Padoa Schioppa si trovarono in disaccordo in merito alle tremende strette
di bilancio di quegli anni, considerate letteralmente assurde dal primo e necessarie dal
secondo. Ma soprattutto essi si divisero in merito alle determinanti degli elevati tassi
dinteresse dellepoca. Per Modigliani, i tassi elevati dipendevano essenzialmente dalla
marcata inflazione interna, dal deficit dei conti esteri e dal conseguente rischio di
cambio; per Padoa Schioppa, invece, il problema verteva sul paventato pericolo di una
crisi fiscale dello Stato. Ebbene, per quanto le analisi teoriche e gli stessi test statistici
sulla sensibilit dei tassi dinteresse ai conti esteri e ai conti pubblici abbiano
solitamente dato ragione a Modigliani, bisogna ammettere che oggi la vulgata in materia
risulta pressoch dominata da una visione alla Padoa Schioppa. Con la conseguenza che
oggi in Italia quasi tutti, anche a sinistra, tengono gli occhi fissi sui livelli del deficit e
del debito pubblico, preoccupati magari di verificare che essi rientrino nei famigerati
limiti di Maastricht (dei quali Modigliani non smise mai di denunciare la totale
inconsistenza analitica). Si tratta di un atteggiamento infausto, del modo migliore per
lasciarsi sorprendere dagli eventi: infatti, se proprio una crisi dovesse sopraggiungere,
con buona probabilit essa ci piomberebbe addosso a causa non tanto del debito
pubblico quanto soprattutto del deficit estero. A differenza di molti suoi successori, di
questo Modigliani era ben consapevole. Restano invece forti dubbi sulla reale efficacia
della compressione salariale, che egli consider sempre lo strumento decisivo per
mettere sotto controllo linflazione e i conti esteri. I lavoratori italiani hanno infatti
lungamente seguito la via dei sacrifici indicata dal padre nobile della moderazione
salariale. Ma oggi, pur con retribuzioni tra le pi basse dEuropa, la tendenza del paese
al deficit estero rimane strutturale.
Sia nella versione del maestro che in quella dei seguaci, dunque, alla prova dei
fatti il mainstream ha rivelato le sue crepe. Eppure, come per inerzia, lindirizzo
strategico del paese rimasto quello di sempre, con alla base lo schiacciamento dei
salari, magari attraverso lo sfaldamento del contratto nazionale e la ulteriore
precarizzazione del lavoro. C modo di uscire da un tale, angoscioso deja vu?
Tecnicamente possibile. Ma la tecnica, da sola, non basta mai (9 dicembre 2007).
57

5 Modigliani, lirrazionalit dello sciopero

Franco Modigliani, classe 1918, premio Nobel per l'economia nel 1985 per le sue
analisi pionieristiche sul risparmio e sui mercati finanziari, morto ieri in
Massachusetts, dove da anni viveva e insegnava. La produzione scientifica e divulgativa
di Modigliani vastissima, e ricopre gran parte del dibattito di teoria e politica
economica del Novecento. Modigliani divenne noto alla cittadella accademica per i suoi
fondamentali contributi alla formulazione della cosiddetta sintesi neoclassica, una
versione ortodossa e moderata del contributo di Keynes. Dall'economista inglese egli
trasse un fermo convincimento anti-liberista, quello secondo cui il mercato non pu
mai esser lasciato a se stesso, e la politica economica lo strumento indispensabile per
il conseguimento dell'obiettivo prioritario della piena occupazione. Per questo motivo,
egli ha spesso e volentieri attaccato la Banca centrale europea e la sua politica
restrittiva, giungendo addirittura a considerarla il vero nemico dell'euro e degli
europei, e invocando sempre una radicale riforma in senso keynesiano del Trattato
dell'Unione.
Il pubblico italiano tuttavia ricorder Modigliani soprattutto per i numerosi
interventi nel campo della politica economica nazionale, a partire da quelli degli anni
`60 e '70 scritti in collaborazione con Giorgio La Malfa, Ezio Tarantelli e Tommaso
Padoa Schioppa. Bench nato in Italia e legatissimo al suo paese d'origine, nei confronti
della vita politica e sindacale nostrana Modigliani rivelava l'insofferenza tipica degli
economisti allevati nelle torri d'avorio americane. Egli curiosamente definiva gli
scioperi irrazionali, e spesso dichiar che le battaglie dei rappresentanti dei lavoratori
fossero controproducenti e autolesionistiche. Le contestazioni da parte degli esponenti
del pensiero critico furono numerose e accurate, ma egli non si scost mai da tali
controverse posizioni. Al conflitto Modigliani non smise di preferire nettamente la pax
sociale ottenuta tramite la politica dei redditi, e oper sempre a sostegno dei governi che
in Italia e nel mondo decidevano di adottarla. Inoltre, dal punto di vista della disciplina
del mercato del lavoro Modigliani fu un convinto fautore della flessibilit,
distanziandosi in ci dal tradizionale insegnamento keynesiano. Negli anni `90 egli
difese il pacchetto Treu, ed in seguito giunse persino a condividere il tentativo, ad opera
del governo di centro-destra, di introdurre deroghe all'articolo 18 dello Statuto dei
lavoratori. Nonostante la sua fede nelle virt della flessibilit del lavoro, Modigliani non
tuttavia mai riuscito a digerire l'attuale governo italiano. Persino nell'ultima intervista,
pubblicata ieri su Repubblica nel giorno stesso della morte, Modigliani non ha
risparmiato critiche feroci nei confronti di Silvio Berlusconi. Di origine ebraica,
costretto ad emigrare nel 1939 negli Stati Uniti proprio a causa delle persecuzioni
fasciste, Modigliani non ha mai tollerato le aperture di Berlusconi su Mussolini e sul
Ventennio. Lapidario, in proposito, il suo ultimo intervento: con i suoi show questo
premier sta disonorando il paese (26 settembre 2003).

6 Dornbusch, lillusione della razionalit dei mercati

Liberati del burocrate e confida nel mercato, questo era il motto che Rudi
Dornbusch amava spesso ripetere. Nato in Germania ma cresciuto a Chicago e in
58

seguito adottato dal MIT di Boston, Dornbusch morto a Washington lo scorso 25


luglio, allet di 60 anni. Il suo orientamento politico pu esser collocato a met strada
tra lantistatalismo viscerale di Milton Friedman e il liberismo temperato e solidale di
Modigliani. Un simile retroterra culturale e una certa propensione alla battuta velenosa
lo spinsero in numerose occasioni a polemizzare con le organizzazioni sindacali, gli
ambientalisti e i manifestanti di Seattle, ai quali egli imputava di voler nascondere le
mire neo-protezionistiche dietro lo slogan a suo dire improbabile della globalizzazione
dei diritti. Daltro canto, bench i sindacati e i movimenti costituissero il suo bersaglio
privilegiato, Dornbusch non risparmi critiche nei confronti di un certo
convenzionalismo ortodosso, che riteneva diffuso soprattutto in Europa: nella Bce, in
particolare, ossessionata a suo dire da uninsensata lotta allinflazione che non c e
dalla strenua, masochistica difesa dei vincoli di Maastricht; ma anche tra gli apologeti
del presunto miracolo americano degli anni 90, ai quali leconomista del Mit ricord
che quel miracolo stava avvenendo a tassi di crescita della produttivit del lavoro
inferiori a quelli europei, e che lEuropa risultava pi dinamica proprio a causa della
tanto vituperata maggiore rigidit del suo mercato del lavoro.
Le concessioni eterodosse di Dornbusch sono tuttavia sempre rimaste confinate
nellambito della sua attivit di divulgatore. Sul piano analitico, infatti, il contributo
delleconomista del Mit rientra nel lungo processo di restaurazione con il quale gli
esponenti del pensiero neoclassico intesero neutralizzare la potenziale rivoluzione
teorica contenuta nella General Theory di Keynes. Lopera contro-rivoluzionaria era gi
iniziata nel 1937, quando Hicks propose di incardinare le intuizioni keynesiane nel suo
modello IS-LM. Questo modello tuttavia trascurava le relazioni dirette tra domanda di
merci e prezzi, e ammetteva pertanto la possibilit che il sistema economico, lasciato a
s stesso, rimanesse incagliato in uno stato di disoccupazione permanente. La soluzione
del problema venne fornita da Patinkin, il quale diede sostegno teorico allidea che una
prolungata caduta dei salari e dei prezzi potesse determinare, almeno in linea di
principio, laumento di domanda necessario ad assorbire i disoccupati. Le conclusioni di
Patinkin permisero dunque di ricacciare la disoccupazione keynesiana nel novero dei
fenomeni transitori, e al limite trascurabili. A Dornbusch e al suo collega Stanley
Fischer spett il compito di diffondere il verbo della restaurazione tra gli studenti e le
giovani leve di economisti attraverso il modello AS-AD, attorno al quale essi
costruirono il loro notissimo manuale di macroeconomia.
E comunque nel campo degli scambi internazionali e delle politiche valutarie
che Dornbusch ha fornito il contributo teorico di maggiore rilievo. Nel 1976 egli
elabor il cosiddetto modello di overshooting, secondo cui la forte volatilit dei cambi
dipenderebbe dalla risposta razionale degli agenti economici a decisioni di politica
monetaria effettuate in un contesto di rigidit dei prezzi e dei salari. Questa idea venne
accolta con un certo favore dalla comunit finanziaria. Uninterpretazione estrema del
modello di overshooting consentiva infatti di imputare i crescenti fenomeni di instabilit
valutaria ai politici, rei di manovrare con troppo zelo sulla moneta anzich di intervenire
a favore della flessibilit del mercato del lavoro. La stessa interpretazione scagionava
inoltre gli operatori finanziari, poich per essa questi si limitavano ad agire
razionalmente nel contesto politico dato.
Il successo internazionale di questa interpretazione avrebbe in seguito legittimato
decisioni molto gravi, come lagganciamento permanente del peso argentino al dollaro
americano. Quando infatti il dollaro prese a trascinare il peso in una corsa al rialzo che
erodeva la competitivit argentina, vi fu chi arriv a sostenere che il problema non
59

risiedeva affatto in un mercato valutario impazzito, ma nella riluttanza dei sindacati


argentini a favorire ladeguamento dei salari e dei prezzi alla dinamica dei cambi.
Secondo questottica, occorreva cio che i sindacati accettassero di sottomettere
totalmente la contrattazione salariale ai capricci del mercato valutario, per evitare la
crisi di competitivit dellindustria argentina. La logica sottostante al modello di
Dornbusch, insomma, aveva finito per avallare lassurdo: la coda deve governare il
cane, ossia spetta al mercato valutario guidare le dinamiche dei mercati dei beni e
soprattutto del lavoro. Il caos nel quale attualmente versa leconomia argentina anche
il prodotto di questa discutibile ricetta (28 luglio 2002).

6 Debreu, lequilibrista del capitale

Gerard Debreu, francese, professore di economia matematica a Berkeley in California,


premio Nobel nel 1983, e morto ieri a Parigi allet di 83 anni. Il nome di Debreu
indissolubilmente legato al compimento di un gigantesco sforzo collettivo, che negli
anni 40 e 50 vide i massimi esponenti del pensiero neoclassico impegnati nella
costruzione di un modello di equilibrio generale, vale a dire un tentativo di
rappresentazione totale del funzionamento di una economia concorrenziale. Debreu
ha sempre mostrato una forte ritrosia nei confronti dei tentativi di attribuire alla sua
opera una capacit di descrizione della realt economica, cos come si opposto alla
possibilit di trarre dal suo edificio concettuale delle dirette implicazioni politiche.
Come si evince dalla sua biografia e da una intervista del 1996 raccolta da Piero Bini e
Luigino Bruni, Debreu ha sempre cercato di mantenere le distanze dagli impieghi per
cos dire ideologici della sua teoria. Egli non a caso amava ricordare di aver
sistematicamente disertato le riunioni del proprio dipartimento alla Cowles
Commission, dove Friedman e la sua Scuola di Chicago andavano sviluppando le linee
guida del monetarismo, il credo su cui si lungamente fondata la politica restrittiva di
numerose banche centrali.
Nonostante il voto di neutralit compiuto da Debreu, innegabile che la sua
Theory of Value del 1959 rappresenti tuttora il punto di riferimento essenziale per la
maggior parte degli studi tesi alla dimostrazione borghese per eccellenza: lefficienza
di un ordine sociale esclusivamente basato sulla libera interazione di individui
autonomi, egoisti e razionali. In altre parole, lefficienza del capitalismo, o meglio, della
rappresentazione che i suoi apologeti amano dare di esso. Per quanto infatti le ricerche
di Debreu e degli altri teorici neoclassici non siano mai state in grado di elaborare una
dimostrazione generale dellunicit e della stabilit dellequilibrio economico generale,
oggi prevalente il convincimento che il loro contributo sia stato decisivo per definire
le condizioni necessarie affinch il medesimo equilibrio possa sussistere e quindi,
implicitamente, anche le azioni politiche che occorrerebbe intraprendere qualora quelle
condizioni non fossero soddisfatte. In questottica, leconomista del MIT Olivier
Blanchard si spinto addirittura al punto di attribuire proprio a Debreu il merito di aver
chiarito in termini rigorosamente scientifici i presupposti per il corretto funzionamento
della mano invisibile di Adam Smith, vale a dire di quel principio secondo cui la
propriet fondamentale del capitalismo consisterebbe nel generare benessere diffuso
grazie esclusivamente al libero operare dellegoismo dei singoli. Questo
significherebbe, ad esempio, che lefficienza capitalistica assicurata solo nel caso in
60

cui i prezzi, secondo limpostazione di Debreu, siano perfettamente in grado di riflettere


la scarsit relativa delle risorse che essi rappresentano. Se per esempio il lavoro fosse
relativamente abbondante rispetto alle altre risorse allora il suo prezzo, ossia il salario,
dovrebbe risultare relativamente basso. Se ci non avviene, magari a causa dellazione
dei sindacati, vorr dire che solo a questi ultimi che si dovr imputare linefficienza
dellequilibrio capitalistico. Originariamente destinato agli studi dingegneria e capitato
tra le spine della scienza economica solo a causa della guerra, Debreu sarebbe
probabilmente sobbalzato di fronte al carattere rudemente politico di una simile
conclusione. Ci non toglie, tuttavia, che essa rappresenta la pressoch indiscussa
conseguenza logica di tutti i modelli ispirati alla sua opera.
E un peccato che non si possa chiedere direttamente ad Adam Smith una
valutazione epistemologica sul temerario accostamento tra la novella della mano
invisibile e la teoria di Debreu. Ma soprattutto, appaiono a dir poco fuorvianti le
concezioni secondo cui la realt capitalistica funzionerebbe in modo non efficiente
(generando ad esempio crisi e disoccupazione) solo perch i sistemi economici effettivi
non rispettano i requisiti del modello di equilibrio generale di Debreu. Quei requisiti
rappresentano infatti soltanto delle condizioni di equilibrio di un particolare schema di
rappresentazione del capitalismo, il modello neoclassico. E non vi nessuna ragione
scientifica per cui si debba reputare quello schema lunica possibile metafora del
funzionamento effettivo del sistema economico. Qui si pone il problema di fondo per
chi desideri accostarsi criticamente al pensiero di Debreu e degli altri giganti
dellortodossia neoclassica. E il problema della costruzione di una potente
rappresentazione alternativa del sistema capitalistico, quale fondamento necessario per
una efficace critica della teoria economica dominante e della ideologia ad essa sottesa.
Le critiche interna ed esterna allequilibrio generale neoclassico, elaborate da alcuni
esponenti italiani delle cosiddette scuole di pensiero critico, rappresentano a parere di
chi scrive una base di sostegno promettente per la costruzione di una teoria alternativa.
Queste impostazioni, infatti, presentano gi il merito di non attribuire alla
determinazione capitalistica del salario e delle altre variabili distributive alcuna
propriet generale di efficienza, ma anzi fanno risalire le origini della stessa a questioni
di potere, come quello tipico della classe capitalista di accedere in modo privilegiato
alle fonti di finanziamento. Un limite che tuttavia pu rintracciarsi in queste analisi - e
che almeno negli esiti sembra accomunarle allopera di Debreu - consiste nella estrema
difficolt di introiettare o anche solo di rapportarsi con il processo storico e con i suoi
continui stravolgimenti. Debreu, con lipotesi eroica dei mercati futuri completi per tutte
le merci aveva deciso di liquidare il problema facendo implodere lintero sviluppo
storico in un unico punto, il cosiddetto tempo zero, in cui verrebbero
inverosimilmente intraprese tutte le decisioni per il futuro. Riguardo invece alle teorie
critiche, queste sulla storia appaiono ancora pressoch mute. Il che le pone, almeno per
il momento, a grande distanza dal pieno compimento delle ambizioni di Marx, loro
grande ispiratore (7 gennaio 2005).

7 Galbraith, il mercato come sopraffazione

LAntitrust uno strumento assolutamente innocuo, del tutto inoffensivo. Un


giudizio che farebbe gelare il sangue ai molti esponenti della sinistra che in Italia ed
61

altrove sono stati sedotti dalla dottrina del mercato regolamentato. Eppure questo era il
convincimento del gigante John Kenneth Galbraith, morto allet di 97 anni a
Cambridge, Massachusetts. Esponente di punta dellistituzionalismo americano,
politicamente un liberal alle soglie del socialismo, Galbraith non mai stato tenero con i
pasdaran del liberismo temperato dalle regolamentazioni. Ben pochi tra i sostenitori
delle cosiddette autorit di garanzia della concorrenza sarebbero dunque scampati alla
sua critica, sempre elegantissima e spietata. E la ragione che in fondo Galbraith
proprio non credeva nel mercato, essenzialmente per due ordini di motivi: la profonda,
strutturale irrazionalit dello stesso, e la tendenza a privilegiare sistematicamente i
soggetti in posizione di dominio. Si potrebbe obiettare che se un sistema tutela i pi
forti non si pu dire che almeno dal loro punto di vista non sia razionale. Ma la
questione proprio questa. La critica di Galbraith era infatti rivolta alla versione
apologetica del concetto di razionalit, quella secondo cui lazione della concorrenza sul
libero mercato avrebbe condotto il sistema economico lungo un sentiero di sviluppo
equilibrato e diffuso, in grado di assicurare il massimo benessere per tutti e non solo per
pochi. Unidea, questa, alla quale i suoi colleghi di Harvard e di Princeton dedicavano
lintera loro carriera accademica, e che Galbraith si divertiva invece a smontare pezzo
per pezzo, con laiuto del realismo storico molto pi che della logica formale.
In tema di irrazionalit del mercato, una delle pi efficaci massime di Galbraith
contenuta non in un saggio ma in un suo breve, godibilissimo romanzo: Il professore
di Harvard (A Tenured Professor, 1990), dove si legge che lirrazionale reale. Su
questa indovinata parafrasi hegeliana leconomista di origine canadese aveva del resto
gi lungamente meditato, come dimostra una delle sue opere pi significative: Il grande
crollo (The Great Crash, 1955), dedicato alla crisi degli anni 30. In esso Galbraith
svel con dovizia di particolari la meccanica profonda del mercato borsistico, la
presenza sistematica e squilibrante, allinterno dello stesso, di pastori che fanno i
prezzi e di greggi che li subiscono, ma soprattutto i rischi di crisi cumulativa impliciti
nel meccanismo della leva finanziaria, guarda caso adoperato oggi ben pi di allora. Il
libro oltretutto ricco di aneddoti istruttivi, come quello dedicato a Charles Ponzi, un
affarista di origine italiana inventore della famosa catena omonima. Questa consiste
nellattirare masse di incauti risparmiatori promettendo loro remunerazioni
stratosferiche, che verranno poi effettivamente erogate adoperando i risparmi
provenienti dalle successive ondate di investitori. Il sistema si regge quindi su un ciclo
monetario del tutto virtuale, senza alcun bisogno di finanziare investimenti realmente
produttivi. Basti pensare che Ponzi attirava la sua clientela sostenendo di vendere titoli
immobiliari di una citt della Florida definita in piena espansione, ma che in realt
non era altro che un paludoso acquitrino. Un simile meccanismo ovviamente tiene
finch lafflusso di risparmiatori attirati dalle facili promesse del Ponzi di turno eccede
il numero dei vecchi clienti i cui titoli sono venuti in scadenza, e che vanno quindi
ripagati. Labilit del mazziere sta quindi nel prenotare un volo per le Isole Vergini
prima che il suo castello di carta gli crolli addosso. Ponzi evidentemente dovette avere
un attimo di esitazione visto che fin i suoi giorni in galera. Ma la procedura da allora si
fortemente affinata, e di catene del genere si scoprono versioni sempre pi sofisticate
e inquietanti.
Il mercato dunque innanzitutto un luogo di esercizio del potere: quello di
sopraffare il prossimo attraverso un migliore controllo dellinformazione, delle relazioni
sociali, persino della psiche degli individui. Operando nel solco della migliore
tradizione istituzionalista, Galbraith si in tal senso lungamente dedicato ai meccanismi
62

di manipolazione delle preferenze individuali da parte delle grandi corporazioni, al fine


di dimostrare lassoluto irrealismo del concetto di libert del singolo, sia esso
consumatore, risparmiatore oppure lavoratore. Il sistema, lasciato allazione dei poteri
forti che operano al suo interno, tende a generare effetti perversi, che sembrano di fatto
operare in direzione esattamente opposta alle pi elementari aspirazioni umane. In
questo senso, mostrando una spiccata sensibilit ante-litteram nei confronti
dellambiente e di quelli che oggi chiameremmo beni comuni, nel suo bestseller La
societ opulenta (The Affluent Society, 1958) Galbraith sostenne che senza opportuni
contrappesi il capitalismo avrebbe fatto sprofondare lumanit in una infelice esistenza,
dominata dallopulenza privata e dallo squallore pubblico.
Per evitare un simile destino la strada, per Galbraith, sempre stata una soltanto.
Occorre costituire dei contropoteri in grado di bilanciare la forza soverchiante delle
grandi imprese, dei grandi investitori, dei cartelli e dei monopoli (American Capitalism,
1961). In parole povere, bisognerebbe favorire il pieno sviluppo dei sindacati dei
lavoratori, delle associazioni dei consumatori e dellapparato pubblico, sostenendo a
questo scopo anche misure espressamente definite socialiste, come lamministrazione
dei prezzi e le nazionalizzazioni. Opinioni, queste, che negli Stati Uniti non hanno mai
goduto di largo seguito, nonostante lestrema notoriet di Galbraith ed i ruoli
significativi da lui assunti presso le Amministrazioni democratiche degli anni 50 e 60.
Ed certamente indicativo che oggi simili proposte incontrino fortissime resistenze
anche nel vecchio continente, in quella Europa che Galbraith aveva spesso indicato
come un invidiabile punto di riferimento sociale e culturale.
I contropoteri, insomma, hanno bilanciato molto meno di quanto Galbraith
sperasse, e negli ultimi decenni sono stati costretti persino ad arretrare. In una intervista
di alcuni anni fa, il nostro cerc di avanzare una possibile spiegazione per questo
drammatico regresso: i contropoteri non si sono sviluppati quanto avrebbero dovuto, nel
senso che non sono mai stati in grado di coinvolgere gli strati marginali della societ,
non sono cio mai riusciti a farsi portatori delle istanze dei giovani dei ghetti, dei poveri
delle aree rurali, dei lavoratori situati nei settori residuali e nelle zone periferiche. I
gruppi marginali hanno pertanto finito per tramutarsi in un micidiale strumento nelle
mani della Reazione. Il loro disagio infatti divenuto un implicito atto daccusa nei
confronti dei lavoratori sindacalizzati, di quella sinistra pensante e garantita che pure
negli Usa ha avuto nei decenni passati un decisivo ruolo di indirizzo e di mobilitazione.
Una lettura, questa, forse tautologica e troppo politicista, che espone probabilmente il
fianco alle pi classiche tra le critiche marxiste. Prima ancora di puntare lindice sulle
manchevolezze dei sindacati organizzati bisognerebbe infatti indagare sulle condizioni
strutturali che solo in certi ambiti ne hanno permesso la costituzione e il rafforzamento.
Ci nonostante, sembra difficile non ammettere che Galbraith su questo punto abbia
intuito qualcosa di significativo. In unepoca in cui la sinistra non appare pi in grado di
parlare al popolo, in cui larghissimi strati sociali sono lasciati in balia del mercato da un
lato e delle peggiori pulsioni plebiscitarie dallaltro, il monito del grande economista
risulta quanto mai attuale (7 maggio 2006).

8 E morto Friedman, gigante del monetarismo

Alla base delle dichiarazioni contro la libert di mercato c quasi sempre unostilit di
fondo nei confronti della libert in quanto tale. Era questo uno degli aforismi con i
63

quali Milton Friedman amava presentarsi al grande pubblico, nella veste di nemico
giurato dei comunisti e pi in generale di tutti i sostenitori, pi o meno accaniti,
dellintervento pubblico nelleconomia.
Friedman morto a San Francisco, allet di 94 anni. Indiscusso gigante del
monetarismo e premio Nobel per leconomia nel 1976, Friedman potr forse essere
ricordato come il massimo rappresentante della contraddizione insita nel concetto di
libert in regime capitalistico. Egli fu infatti strenuo difensore non solo delle classiche
libert dimpresa ma anche dei diritti civili. Basti pensare che non ebbe mai alcuna
remora nel difendere, anche di fronte allAmerica pi bigotta e reazionaria, la
legalizzazione delle droghe leggere e pesanti e al limite il pieno diritto di uccidersi
attraverso di esse. Ma al tempo stesso Friedman fu pure il demiurgo economico della
sanguinaria dittatura del Cile di Pinochet. Nel 1975, due anni dopo il feroce colpo di
Stato che destitu Alliende e che avrebbe aperto una delle pagine pi oscure della Storia
del Novecento, Friedman accett di incontrare il dittatore. In quel colloquio vennero
gettate le basi per un gemellaggio tra lUniversit di Chicago, gi allora tempio del
monetarismo, e lUniversit Cattolica di Santiago del Cile. Obiettivo dellintesa:
formare una nuova generazione di economisti e di politici cileni, di comprovata fedelt
sia al liberismo che al regime. Giovani e arrembanti, dopo il preliminare
indottrinamento friedmanita i cosiddetti Chicago boys avrebbero assunto importanti
cariche nel governo Pinochet, al fine di sottoporre leconomia cilena ad una delle pi
terribili purghe liberiste che si ricordino: abolizione dei minimi salariali e dei diritti
sindacali, rigido controllo dellofferta di moneta, deregolamentazioni, privatizzazioni e
svendite di capitale pubblico nazionale a favore di imprese statunitensi, il tutto
conseguito con una rapidit senza precedenti grazie alla paralisi del popolo cileno,
totalmente soggiogato da una terrificante dittatura.
Friedman arriv a definire il feroce esperimento cileno come un vero e proprio
miracolo. Fu la goccia, e anche i colleghi a lui culturalmente pi vicini cercarono di
tenersi a distanza da quella sconcertante presa di posizione. Lonta dellepisodio tuttavia
non lo perseguit troppo a lungo. Appena pochi anni dopo il governatore della Federal
Reserve, Alan Greenspan, non ebbe alcuna esitazione nel definire pubblicamente
Friedman il mito indiscusso della scienza economica contemporanea. Un tributo che,
provenendo dal pi importante banchiere centrale del mondo, stato da molti
interpretato come un implicito ringraziamento. Dopotutto il monetarismo di Friedman
ha posto le banche centrali in una posizione invidiabile. E pur vero infatti che proprio
alla irrazionale decisione dei banchieri centrali di ridurre la massa monetaria reale egli
attribu la colpa gravissima della Grande Crisi. Ma altrettanto vero che con
lancoraggio dei suoi modelli al cosiddetto equilibrio naturale, Friedman ha liberato
lautorit monetaria dalla responsabilit di perseguire gli obiettivi politici della piena
occupazione e di una pi equa distribuzione dei redditi. Lidea delleconomista di
Chicago che nel lungo periodo il sistema di mercato tende spontaneamente verso i
livelli naturali della disoccupazione e della distribuzione: questi livelli sono
determinati dalle libere scelte dei singoli individui, per cui le autorit di politica
economica non possono illudersi di modificarli semplicemente stampando banconote.
Anzi, una volta preso atto dellequilibrio naturale, sarebbe bene che lautorit
monetaria si impegnasse a fare lunica cosa che la dottrina di Friedman le chiede:
provvedere al ferreo controllo dellinflazione, attraverso una crescita della liquidit in
linea con la crescita naturale della produzione.
64

Linterpretazione friedmanita della politica monetaria ha in effetti sollevato


molti dubbi, anche nellambito del mainstream. Essa tuttavia stata contestata
soprattutto dagli esponenti della teoria critica, i quali hanno invece sempre concepito il
banchiere centrale come un vero e proprio gendarme del conflitto sociale. Per gli
economisti critici non vi infatti nulla che possa definirsi un equilibrio naturale. Il
capitalismo si muove piuttosto in base alle spinte e alle controspinte di gruppi sociali in
conflitto tra loro, e la banca centrale spesso e volentieri si ritrova a fungere da ago della
bilancia della contesa. Essa potr ad esempio cedere alle pressioni sociali, dando luogo
a quello che Guido Carli spregiativamente definiva un regime di labour standard sulla
moneta; oppure invece potr agire con pugno di ferro, generando disoccupazione al fine
di disciplinare una irrequieta classe lavoratrice. Sotto la lente della teoria critica,
dunque, i consueti comunicati del banchiere centrale perdono la loro classica aura di
neutralit tecnica, e sembrano piuttosto rivelare il carattere di veri e propri messaggi
cifrati di guerra. Lo smaliziato Friedman probabilmente era del medesimo avviso, ma se
ne andato guardandosi bene dallammetterlo (17 novembre 2006).

9 Moventi e destini delleuro: una nota su Luigi Spaventa

Leconomista Luigi Spaventa morto domenica, a Roma, allet di 78 anni. Docente di


economia politica alla Sapienza, fu deputato della sinistra indipendente negli anni
Settanta, poi ministro del Bilancio del governo Ciampi, quindi presidente della Consob.
Alle elezioni del 1994 gli tocc la sfida impossibile di fronteggiare Berlusconi nel
collegio di Roma. La sconfitta, secca, rappresent in un certo senso una prova generale
per lavvio di una nuova era della comunicazione politica: con Spaventa che provava a
dire la sua sulla crisi del Sistema monetario europeo mentre Berlusconi gli rinfacciava
di non aver mai vinto la coppa dei Campioni.
Di diverso rango furono le dispute alle quali Spaventa partecip nel corso della
sua vita di studioso. Durante gli anni Sessanta prese parte alla controversia sulle
incoerenze della teoria neoclassica collocandosi sul fronte eretico degli sraffiani. Con
essi condivise lattacco alla tesi neoclassica secondo cui la distribuzione del reddito tra
salari e profitti sarebbe il frutto di un equilibrio naturale del mercato, determinato
essenzialmente dalle libere scelte di consumo, risparmio e lavoro degli individui e dalla
scarsit delle risorse produttive esistenti. Per gli sraffiani quella tesi era basata su una
misura contraddittoria del capitale e risultava quindi logicamente insostenibile. Per
questo andava sostituita da una teoria alternativa di ispirazione classica e marxiana, che
vedeva la distribuzione del reddito come una risultante del quadro istituzionale e
politico, e in ultima istanza dei rapporti di forza tra le classi sociali. Spaventa
condivideva i termini di questa obiezione, ma la mera critica della teoria dominante non
lo seduceva. A suo avviso, per dare un solido futuro al programma di ricerca di Sraffa
bisognava concentrare gli sforzi sulla sua parte costruttiva, senza troppe pregiudiziali
verso la vecchia teoria. Per esempio, Spaventa riteneva che si potesse integrare lanalisi
sraffiana con gli spezzoni a suo dire salvabili della visione ortodossa, come ad esempio
la teoria delle aspettative. Questo programma spurio tuttavia non convinse. Tra gli
sraffiani prevaleva lidea che far dipendere una teoria economica da una ipotesi sulle
aspettative era un po come tenerla su per i lacci delle scarpe. Spaventa prese atto, e
anche per questo inizi a distanziarsi.
65

Lallontanamento dagli antichi sodali fu ancor pi accentuato nel campo della


politica economica. Nel 1981, con Mario Monti ed altri, Spaventa caldeggi la proposta
di desensibilizzazione dei salari. Lidea consisteva nellindicizzare le retribuzioni ai
soli aumenti dei prezzi di origine nazionale: in caso di inflazione proveniente
dallestero, i salari non dovevano pi essere protetti. In tal modo il potenziale
inflazionistico della scala mobile sarebbe stato attenuato. Le obiezioni furono numerose:
perch mai adottare un meccanismo che avrebbe salvaguardato i profitti e avrebbe
scaricato sui soli lavoratori il peso degli aumenti del prezzo del petrolio? Per Monti ed
altri veniva istintivo cercare di difendersi da questa critica arrampicandosi al vecchio
albero neoclassico, e da l replicare che i salari andavano frenati poich avevano
oltrepassato lequilibrio naturale. Ma per Spaventa, che negli anni precedenti aveva
contribuito a segare il tronco di quella pianta, si apriva una contraddizione fra le sue
origini teoriche e le proposte politiche che intendeva sostenere.
Forse anche per risolvere tali incongruenze, negli anni Ottanta Spaventa
approfond sempre di pi il solco che lo divideva dagli eretici, fino ad attribuire ad essi
il poco lusinghiero appellativo di riserva indiana. In effetti fu tempestivo nel rilevare
che il fronte della guerra delle idee economiche si era spostato altrove: con le sconfitte
sindacali in Italia e in Europa, la Reaganomics negli Stati Uniti e la crisi sovietica, il
tema delle determinanti di classe della distribuzione del reddito appariva ormai
superato, dal corso degli eventi storici prima ancora che dalla evoluzione del dibattito
teorico. A suo avviso, lanalisi delle aspettative restava invece attualissima. Per
Spaventa, il problema principale posto dalla nuova epoca consisteva nellindividuare
meccanismi istituzionali capaci di rendere stabili le aspettative degli investitori, in modo
da garantire uno sviluppo ordinato dei mercati. Fu alla luce di questo convincimento che
egli modific le sue opinioni sul Sistema monetario europeo. Nel 1979, quando lo Sme
fu istituito, Spaventa si collocava tra le file degli scettici: il regime dei cambi fissi
avrebbe impedito allItalia di svalutare, e in definitiva lavrebbe danneggiata. In seguito,
per, egli divenne un tenace sostenitore di quel vincolo. Anzi, a suo avviso bisognava
rafforzarlo attraverso un accordo pi stringente, che eliminasse ogni incertezza sulla
irrevocabilit futura dei rapporti di cambio tra le valute. In altre parole, per stabilizzare
le aspettative degli investitori bisognava chiarire che non si poteva pi tornare indietro:
bisognava andare oltre lo Sme e istituire una vera e propria moneta unica. La creazione
delleuro, eliminando qualsiasi rischio di future svalutazioni, avrebbe favorito gli
afflussi di capitale estero verso lItalia e gli altri paesi periferici dellUnione. Grazie alla
regolare crescita degli afflussi finanziari, queste economie avrebbero potuto investire e
aumentare la produttivit e sarebbero quindi state in grado di rimborsare i prestiti.
Spaventa non fu certo il solo a propugnare questa tesi: la narrazione di un euro
capace in s di risolvere anzich accentuare le contraddizioni europee stata per anni
prevalente. E pur vero che, prima della crisi, tra gli esponenti della teoria dominante
qualche voce dissenziente si era levata, ma soprattutto dalla riserva indiana degli
eretici che sono scaturite le obiezioni principali. Una in particolare merita di essere
ricordata: pensare di governare le divaricazioni strutturali e i relativi conflitti tra capitali
europei tramite un mero un gioco di aspettative stato, nella migliore delle ipotesi,
illusorio. Col sopraggiungere della crisi, infatti, il tab dellinesorabilit delleuro viene
meno e i flussi finanziari dallestero invertono la loro rotta. Le economie periferiche
vengono cos costrette a immolarsi sullaltare dellausterity e della svendita del capitale
nazionale, nel vano tentativo di ripagare i debiti. In questottica alternativa leuro si
presenta dunque sotto una ben diversa luce, quale strumento egemonico dei forti contro
66

i deboli nella feroce contesa tra capitali europei. Limportanza delle aspettative risulta
quindi nuovamente ridimensionata. Mentre lanalisi dei rapporti di forza, in particolare
dei rapporti di forza tra capitali nazionali, torna alla ribalta.
Nel 2011, prima che la malattia lo bloccasse, Spaventa onor qualcuno dei
dieci piccoli indiani fuoriusciti dalla riserva di un dialogo serrato sulla questione.
Riconobbe che la verifica dei fatti dava sostegno allinterpretazione alternativa.
Convenne che se la moneta unica a rischio, lo anche il mercato unico europeo (8
gennaio 2013).

9 Rivoluzioni nelleconomia e nelle relazioni tra i generi

La Rivoluzione dOttobre non si limit a aprire la strada a un gigantesco stravolgimento


nei rapporti di propriet, di lavoro e di potere, in Russia e nel mondo, ma offr anche
alla giovent sovietica una occasione storica per sperimentare nuove concezioni della
sessualit e degli affetti. La ripubblicazione di un incendiario libretto dellepoca,
Largo allEros alato di Alexandra Kollontaj (il melangolo, 77 pp., 9 euro), consente di
rivivere quei momenti eccezionali e offre pure qualche utile spunto di riflessione per
loggi, sugli attuali conflitti familiari e tra i generi. Prima donna entrata a far parte del
governo dei Soviet, prima ambasciatrice, Kollontaj pubblic questo suo pamphlet nel
1923 e lo dedic alla giovent proletaria della neonata repubblica socialista. Il suo
obiettivo, dichiaratamente marxista, era quello di mostrare ai lettori che anche lamore
ha una sua ineluttabile dinamica, una sua storicit. Al mutare dei rapporti di produzione,
infatti, vengono stravolte anche le espressioni socialmente ammissibili delle pulsioni e
dei sentimenti. Lumanit, in tutte le tappe del suo sviluppo storico, ha dettato le
norme per determinare come e quando lamore doveva considerarsi legittimo e quando
invece doveva considerarsi colpevole, criminale - cio in conflitto con gli obiettivi posti
dalla societ.
La distinzione tra lamore legittimo e quello illecito si determina, secondo
Kollontaj, in virt degli interessi sociali prevalenti. Nelle antiche trib, per esempio, era
estremamente importante trovare legami morali per unire saldamente i componenti
maschi di una collettivit sociale ancora debole. Il sentimento da glorificare era quindi
lamore-amicizia, come quella tra Castore e Polluce. Non certo lamore tra i sessi ma la
fedelt allamico fino alla morte garantiva infatti la forza e quindi la riproduzione del
gruppo. In epoca feudale, invece, trov piena legittimazione lamore platonico del
cavaliere per una dama inaccessibile, al limite per la sposa del principe. Questa passione
sublimata, rendendo il cavaliere capace di imprese belliche durissime, veniva
considerata fondamentale per la salvaguardia del feudo e risultava dunque oggetto di
culto e di celebrazione. Con lavvento poi della societ capitalistica dimensione carnale
e spirituale arrivarono finalmente a riunirsi, ma esclusivamente sotto lidentificazione
dellamore con il matrimonio. Il nuovo ideale amoroso divent quello della coppia
sposata, chiusa in s stessa e coesa contro il mondo esterno, che si faceva custode del
capitale accumulato e che in tal modo si poneva in sintonia con lindividualismo e la
concorrenza connaturati al sistema di vita borghese. Un posto importante, in questa
nuova logica delle relazioni, lavrebbero oltretutto conquistato anche i sottomondi
delladulterio e della prostituzione. Pubblicamente combattuti ma sotterraneamente
tollerati, essi avrebbero rappresentato il lato oscuro, contraddittorio e in un certo senso
67

necessario, della famiglia borghese. Con l'avvento della rivoluzione bolscevica, infine,
vennero posti nuovi interrogativi: quale sarebbe dovuta essere la concezione dell'amore
tipica della societ socialista? Stupefacente fu la risposta di Kollontaj: occorreva un
amore da compagni, liberato dai vincoli del matrimonio borghese, un amore non pi
esclusivo che proprio per il suo carattere diffuso e multiforme avrebbe contribuito al
rafforzamento dei sentimenti di solidariet collettiva e di coesione sociale: lamore-
solidariet - scrive Kollontaj - avr un ruolo motore analogo a quello della concorrenza
e dellamor proprio nella societ borghese.
In effetti, allindomani della rivoluzione le nuove norme sul divorzio, sulle
unioni di fatto, sulla parificazione dei figli nati fuori dal matrimonio, sulla soppressione
della potest maritale e sullaborto suscitarono grandi speranze di emancipazione
sociale, di liberazione femminile e di trasformazione delle relazioni affettive. Ben presto
tuttavia ci si rese conto che le cose non sarebbero andate come Kollontaj aveva
preannunciato. In pochi anni, infatti, la repubblica sovietica torn sui propri passi,
arrivando sotto Stalin a ripristinare gli antichi precetti: dal divieto di aborto, alla
criminalizzazione della libert dei costumi, alla centralit della famiglia tradizionale.
Come spiegare un simile regresso? Luigi Cavallaro, nella sua bella nota introduttiva al
libro, ribalta i nessi causali e offre una prima traccia per provare a rispondere. La sua
idea che, ieri come oggi, lestensione dei diritti civili e le relative attese di
emancipazione dei costumi non possono concretizzarsi se non vengono affiancate da un
contemporaneo accrescimento dei diritti sociali, e soprattutto da una politica di
socializzazione del lavoro di riproduzione e di cura, dei bambini e degli anziani. I
bolscevichi non riuscirono a tenere assieme i due processi di trasformazione, civile e
sociale. Cos la donna venne ben presto ricacciata nel focolare domestico, e la
rivoluzione sessuale e degli affetti invocata da Kollontaj fu relegata al rango di
improponibile utopia.
Debordante nello stile, iperbolico nei propositi politici, non sempre convincente
sul piano analitico, il libretto di Kollontaj pu essere tuttavia annoverato tra le pi
interessanti versioni divulgative della celebre lezione materialista contenuta nella
Origine della famiglia di Friedrich Engels. Si tratta come noto di un filone del
marxismo teorico che ha goduto di alterne fortune, essendo passato pi volte nel corso
del Novecento dal pieno successo al pi completo oblio. Oggi in effetti assistiamo a un
rinnovato interesse verso lanalisi strutturale della famiglia, in gran parte dettato dalla
sua crisi e dalle sue profonde trasformazioni. Persino un influente tecnocrate del calibro
di Jacques Attali ha dedicato al futuro dellorganizzazione familiare e delle relazioni
affettive numerose riflessioni, intrecciate a suggestive premonizioni di ordine
economico e sociale. Attali annuncia la fine della famiglia tradizionale e la nascita di
nuovi e ben pi complessi sistemi di relazioni, e i dati sui divorzi e sulla complicazione
dei rapporti interni alle cosiddette nuove famiglie sembrano dargli qualche ragione.
Egli tuttavia commette lerrore di trascurare il fatto che i mutamenti nellorganizzazione
familiare risentono dei processi di riproduzione materiale delle esistenze. E probabile
allora una tematica cos complessa possa essere correttamente affrontata solo grazie al
recupero della traccia materialista lasciata da Engels, e in seguito sviluppata da
Kollontaj ed altri. Del resto, proprio dalla rinnovata attenzione verso tali contributi
sembra potersi trarre una delle pi promettenti declinazioni del materialismo storico,
legata a Louis Althusser e guarda caso proprio alla estensione logica del concetto di
riproduzione sociale. Dal recupero dei medesimi contributi, infine, si potrebbe anche
ricavare un monito politico per i nostri tempi. Questa infatti unepoca in cui tornano a
68

commettersi errori antichi, che si credevano completamente superati. Per esempio, le


rivendicazioni per i diritti civili appaiono oggi nuovamente velleitarie, essendo state
incomprensibilmente sganciate da quelle per i diritti sociali. Per chi allora soprattutto a
sinistra ha in questi anni coltivato la pretesa di abbandonare il terreno delle battaglie
sociali per sostituirle con delle vaghe istanze liberali di emancipazione civile, vale la
lezione materialista di Kollontaj: soltanto un buon numero di riforme radicali nella sfera
dei rapporti sociali riforme che trasferirebbero taluni doveri dalla famiglia alla societ
e allo stato potrebbe creare un nuovo assetto delle relazioni tra i generi, e quindi anche
della sessualit e degli affetti (27 agosto 2008).

10 Marcello De Cecco: la lucida eresia di un protezionismo moderato

Leconomista Marcello De Cecco morto lo scorso 3 marzo, a Roma. Nato nel 1939 a
Lanciano, laureatosi in legge a Parma e in economia a Cambridge, ha insegnato in
numerosi atenei italiani ed esteri, tra cui Norwich, Siena, la Normale di Pisa e la Luiss
di Roma. Dotato di simpatia innata, colto e raffinato interprete della storia della moneta
e della finanza, De Cecco conquist uno spazio nella ricerca accademica internazionale
per i suoi contributi alla comprensione del gold standard, il sistema aureo vigente fino
alla prima guerra mondiale. Il suo Money and Empire, pubblicato nel 1974 da Basil
Blackwell, considerato un autorevole esempio di analisi storico-critica delle relazioni
monetarie internazionali. Il libro, basato su una accurata disamina delle fonti
documentali, rivela il radicato scetticismo dellautore verso ogni tentativo di esaminare
le relazioni economiche tra paesi in base a teoremi astratti e decontestualizzati [1].
Alla luce di questa metodologia di ricerca, De Cecco ha avanzato spesso
obiezioni verso la tradizione di pensiero economico sostenitrice dei meccanismi di
aggiustamento automatico, secondo i quali le forze spontanee del mercato dovrebbero
essere in grado di garantire lequilibrio degli scambi commerciali e finanziari tra i
diversi paesi. Per gli esponenti di questa visione, il funzionamento del gold standard era
assicurato dal meccanismo spontaneo secondo cui, per esempio, leventuale eccesso di
importazioni di un paese avrebbe dato luogo a un deflusso doro verso lestero tale da
generare un calo di domanda interna e quindi dei prezzi nazionali, con un conseguente
aumento della competitivit e un riequilibrio tra import ed export. Sia pure rivisto e
aggiornato, questo tipo di meccanismo rappresenta ancora oggi un ineludibile punto di
riferimento per la maggioranza degli economisti accademici e viene talvolta citato nei
rapporti ufficiali delle principali istituzioni monetarie per giustificare politiche di
laissez-faire negli scambi internazionali. Per De Cecco, tuttavia, simili aggiustamenti
spontanei in realt non hanno mai avuto rilevanza concreta. A suo avviso, piuttosto, le
relazioni economiche tra paesi sono strutturate su basi imperialistiche, intrinsecamente
votate allo squilibrio, condizionate dalle scelte politiche e finanziarie dei governi e
dipendenti in ultima istanza dai rapporti di forza tra capitalismi nazionali. In questo
senso, nei suoi lavori De Cecco ha suggerito che il gold standard prebellico pot
sopravvivere solo fino a quando lImpero britannico fu in grado di imporre quello che
potremmo definire un regime di governo coloniale dei flussi finanziari internazionali, in
base al quale lIndia era tenuta ad assorbire i titoli del debito che la Gran Bretagna
emetteva per coprire il proprio disavanzo estero.
69

Pi di recente, la teoria dei meccanismi automatici di aggiustamento stata


anche alla base dellentusiasmo con cui molti economisti accolsero la nascita della
moneta unica europea. Lidea che gli squilibri commerciali e finanziari tra i paesi
dellUnione monetaria potessero esser facilmente risolti tramite movimenti spontanei
dei prezzi o magari attraverso migrazioni di lavoratori, era piuttosto diffusa ventanni fa
tra gli studiosi. Questa visione semplicistica, potremmo dire idraulica, del
funzionamento dellUnione monetaria europea, sempre stata criticata da De Cecco, il
quale anche al caso delleuro ha applicato i suoi complessi schemi di lettura storica dei
rapporti economici internazionali. In particolare, egli ha pi volte segnalato che la
tendenza della Germania ad accumulare surplus commerciali verso lestero genera il
paradosso di un paese egemone che, anzich svolgere il ruolo tradizionale di creatore e
diffusore della moneta allinterno del sistema che esso domina, tende piuttosto a
risucchiarla presso di s sottraendola agli altri paesi membri. Tale contraddizione,
secondo De Cecco, non ha precedenti nella storia dei regimi monetari e chiaramente
pregiudica la sostenibilit del processo di unificazione europea [2].
I dubbi sullefficacia dei meccanismi di aggiustamento automatico interni
allUnione monetaria non hanno tuttavia mai indotto De Cecco a contestare il progetto
europeo. Membro del consiglio degli esperti economici dei governi Prodi e DAlema
negli anni Novanta, tra i fondatori del Partito Democratico nel 2007, De Cecco ha
condiviso fino in fondo il percorso politico che ha improvvidamente legato i destini
della sinistra di governo italiana alle speranze di successo dellintegrazione europea.
Anche quando nel 2010 fu tra i firmatari di una lettera di trecento economisti che
evocava la possibilit di una rottura delleurozona [3], in privato De Cecco contest ai
suoi promotori, tra cui il sottoscritto, una frase finale del documento che esplicitamente
contemplava una opzione politica di uscita di uno o pi paesi dalla moneta unica. La sua
sfiducia verso uneventualit del genere era fondata sul timore che labbandono
delleuro sfociasse in un mero deprezzamento del cambio, magari lasciato alle forze
erratiche del mercato: una soluzione che a suo avviso avrebbe solo favorito quegli
spezzoni di piccolo capitalismo, arretrato e talvolta parassitario, che in passato gi
avevano fatto tanti danni e sui quali non riteneva possibile fondare alcuna reale speranza
di sviluppo economico ed emancipazione civile del paese.
Il fatto che rigettasse la mera ipotesi di un ritorno alle valute nazionali, non
consente tuttavia di collocare leconomista di origine abruzzese tra i rassegnati alle
lacrime e al sangue dellattuale processo di integrazione europea. Sia pure con
discrezione e senza clamori, Marcello De Cecco ha sempre portato avanti, in accademia
e in campo divulgativo, una tesi assolutamente eretica e controcorrente: vale a dire
lidea di avviare una riflessione critica sugli effetti della indiscriminata apertura ai
movimenti internazionali di capitali e di merci, e di immaginare delle ipotesi di
ripristino di forme coordinate di controllo degli scambi tra paesi. In un articolo
pubblicato nellaprile 2010 sulla Rivista italiana degli economisti, De Cecco pass in
rassegna le posizioni degli economisti italiani del Novecento in tema di
liberoscambismo: esaminando gli scritti di un giovanissimo Franco Modigliani, di
Marco Fanno, di Giorgio Fu e vari altri, egli mostr che le critiche allapertura
incontrollata alle transazioni con lestero risultavano prevalenti [4]. Nel 2013, nella
introduzione al suo ultimo libro, De Cecco fu poi ancor pi esplicito: egli scrisse che
laver screditato e messo da parte per pi di un cinquantennio soluzioni come il
protezionismo e la regolamentazione degli scambi come se si trattasse di pulsioni
peccaminose e indegne di una nuova e superiore organizzazione internazionale, stato
70

colpevole e persino stupido, perch in forma blanda esse dovevano rimanere in voga
mentre oggi ci si ritrova a ripristinarle velocemente e in dosi assai maggiori, senza
usufruire dei vantaggi che sarebbero derivati da dosi moderate, e correndo in pieno il
pericolo di precipitare il mondo intero in un nuovo disordine internazionale [5].
Anche in sede politica De Cecco prov di tanto in tanto ad avanzare tesi simili.
Nel mezzo della crisi degli spread, in una riunione presso la sede del PD con lallora
segretario Bersani e il responsabile economico del partito Fassina, con la sua
proverbiale flemma De Cecco dichiar che lipotesi di un moderato protezionismo verso
la Germania in fondo non andava scartata a priori, a condizione che lItalia potesse
delinearla in accordo con la Francia, un paese caratterizzato da strutture produttive per
pi di un verso complementari alle nostre. Ricordo che Bersani rest attonito. I tempi
evidentemente non erano maturi.
Negli ultimi anni della sua vita Marcello De Cecco considerava sempre pi
tangibile il rischio di un rapido riflusso verso forme di ultranazionalismo e di razzismo,
ma lo interpretava come una tremenda eterogenesi dei fini del globalismo
indiscriminato e delleuropeismo acritico che negli anni precedenti avevano
imperversato tra le forze politiche, specie a sinistra. Questo nesso di causa ed effetto
suggerisce uninterpretazione non banale della storia recente delle relazioni
internazionali. Su di esso sarebbe utile provare a riflettere (4 marzo 2016).

[1] Marcello De Cecco, Money and Empire: the International Gold Standard 1890-1914 (Oxford: Basil
Blackwell 1974). Cfr. anche la precedente versione italiana del volume: Economia e finanza
internazionale dal 1890 al 1914 (Bari: Laterza 1971), in seguito riproposta in versione ampliata sotto il
titolo Moneta e impero: il sistema finanziario internazionale dal 1890 al 1914 (Torino: Einaudi 1979).
[2] Cfr. per esempio Marcello De Cecco e Fabrizio Maronta, Il dollaro non teme rivali (Limes. Rivista
italiana di geopolitica, 2/2015).
[3] AA.VV., Lettera degli economisti (Il Sole 24 Ore, 14 giugno 2010; www.letteradeglieconomisti.it).
[4] Marcello De Cecco, Gli economisti italiani e leconomia internazionale nel Novecento (Rivista
italiana degli economisti, 2010/1).
[5] Marcello De Cecco, Ma cos' questa crisi (Roma: Donzelli Editore, 2013).
71

IV
LA POLITICA ECONOMICA DEI NOBEL

1 Il mondo asimmetrico di Stiglitz

Se cerano ancora dubbi sullemergere di un revival keynesiano negli ultimi mesi,


lAccademia di Svezia li ha completamente fugati. Listituzione scandinava ha infatti
assegnato il premio Nobel 2001 ai Nuovi Keynesiani George Akerlof di Berkeley e
Joseph Stiglitz della Columbia University - nonch alleconomista di Stanford Michael
Spence - per i loro fondamentali contributi in tema di asimmetrie informative. Vale a
dire, per quelle teorie che partono dalla constatazione che i rapporti sociali tra gli
individui sono sempre squilibrati e asimmetrici, non solo sul piano della ricchezza ma
anche delle informazioni disponibili, le quali pure differiscono da soggetto a soggetto.
Nel corso dellultimo ventennio le ricerche sullinformazione asimmetrica si
sono largamente diffuse nei pi svariati campi della teoria e dellapplicazione
economica, dallanalisi delle organizzazioni industriali a quella dei mercati assicurativi.
Ma in ambito macroeconomico che la teoria delle asimmetrie informative ha fornito le
novit pi significative, consentendo di superare limpasse nella quale era caduta, verso
la fine degli anni 60, linterpretazione neoclassica della teoria keynesiana, la cosiddetta
sintesi di Hicks, Modigliani e Patinkin. Nella sua interpretazione della crisi, Keynes
aveva definito la disoccupazione dei lavoratori come lo stato normale del capitalismo.
Nel modello della sintesi neoclassica, invece, la disoccupazione tornava ad esser
considerata una patologia del sistema, causata da una serie di ostacoli al libero
funzionamento delle forze della concorrenza. Il mancato impiego dei lavoratori
disponibili veniva infatti spiegato con le rigidit dei prezzi, dei salari e dei tassi
dinteresse che derivavano dallazione dei sindacati, dei monopoli, e di tutte quelle
imperfezioni del mondo reale che impediscono il pieno e corretto funzionamento della
concorrenza. In questo modo gli economisti della sintesi neoclassica giungevano pi o
meno implicitamente a suggerire una soluzione di compromesso, con un colpo al
cerchio della teoria e uno alla botte della prassi. Sul piano astratto, linterpretazione
neoclassica del capitalismo veniva infatti giudicata ancora corretta, nel senso che in un
sistema capitalistico ideale la concorrenza avrebbe sempre garantito il pieno impiego di
tutte le risorse; ma nel mondo reale, in cui il mercato condizionato da rigidit e
monopoli, le politiche keynesiane venivano ritenute indispensabili per favorire la
convergenza del sistema verso la piena occupazione. Questa soluzione intermedia
rappresent il mainstream teorico e politico del dopoguerra. Essa presentava tuttavia un
grave limite logico: gli economisti della sintesi avevano infatti supposto lesistenza
delle rigidit dei prezzi e dei salari ma non erano riusciti a dar loro un fondamento, cio
non avevano saputo mostrare in che modo tali rigidit potessero derivare dal
comportamento razionale degli agenti economici. Ad esempio, perch mai anche nelle
situazioni in cui il sindacato era debole i lavoratori privi di impiego e disposti a offrirsi
a salari pi bassi non riuscivano ad abbattere le retribuzioni verso il livello di
equilibrio? Razionalmente, mettendosi in concorrenza con gli occupati, essi avrebbero
potuto e dovuto raggiungere un simile risultato. Eppure ci non avveniva. Lincapacit
di rispondere a simili interrogativi generava una debolezza non da poco, specialmente
72

per una visione teorica che si pretendeva fondata sui canoni dellindividualismo
metodologico. Non fu un caso dunque che proprio su questa debolezza avrebbe fatto
perno, negli anni 70, la critica di Friedman, di Lucas e degli altri esponenti del
monetarismo e della nuova macroeconomia classica. Per tali fautori di un ritorno al
laissez-faire, se le rigidit non erano razionali allora non potevano sussistere, n quindi
poteva esistere una cosa definibile come teoria keynesiana.
Nel bel mezzo dellonda neoliberista degli anni 80, Akerlof e Stiglitz decisero
di reagire alle critiche anti-keynesiane dei monetaristi. Partendo dalla constatazione che
gli individui non dispongono delle medesime informazioni, essi giunsero a dimostrare
che le rigidit dei salari, dei tassi dinteresse e in generale dei prezzi possono anche
scaturire da comportamenti pienamente razionali. Ad esempio, riguardo al mercato del
credito, Stiglitz sostenne che le banche non conoscono la rischiosit dei progetti
dinvestimento dei loro clienti ma sanno solo che, al crescere del tasso dinteresse
richiesto, la clientela pi affidabile tende a rinunciare al prestito e quindi tra i prenditori
rimarranno soltanto i soggetti a maggiore rischio di fallimento. Per evitare ci, le
banche saranno indotte a mantenere il tasso dinteresse al di sotto del tasso di equilibrio
e a gestire il conseguente eccesso di richieste di prestiti con una politica di razionamento
del credito. In tal modo il mercato non raggiunge il suo pieno equilibrio ma le banche
potranno evitare la perdita dei clienti affidabili e la selezione avversa dei prenditori
peggiori. Riguardo invece al mercato del lavoro, Stiglitz aderisce alla controversa tesi
neoclassica secondo la quale esisterebbe un legame inverso tra salari e occupazione, per
cui un aumento dei primi spingerebbe le imprese a ridurre la seconda. Partendo da
questa visione, Stiglitz ha affermato che in genere le imprese non hanno una conoscenza
perfetta del grado di impegno lavorativo dei propri dipendenti. Ci le induce quindi a
offrire salari pi alti di quelli che garantirebbero la piena occupazione, al fine di
incentivare i lavoratori al massimo sforzo produttivo. La carota del salario elevato e il
bastone della conseguente disoccupazione permetteranno di disciplinare i lavoratori e di
ottenere cos la loro fedelt e il loro massimo impegno. Nelle intenzioni del suo
ideatore, si badi, tale spiegazione costituisce non solo una dimostrazione della
razionalit di un salario rigidamente situato al di sopra del livello corrispondente al
pieno impiego, ma anche una prova del fatto che tale rigidit potrebbe dipendere dalle
imprese e non necessariamente dallazione dei sindacati (come ritengono i monetaristi).
Lidea, secondo Stiglitz, che se anche i disoccupati si offrissero a salari minori degli
occupati, le imprese potrebbero comunque decidere di non assumerli, in base al
convincimento che una retribuzione troppo bassa disincentiva limpegno e spinge i
lavoratori a ridurre limpegno e al limite a imboscarsi.
Non tutti ritengono che Stiglitz e gli altri esponenti della sua scuola
rappresentino i legittimi eredi del lascito keynesiano. Alcuni hanno sostenuto che
lincertezza keynesiana si riferisce alla generale, diffusa impossibilit di prevedere il
futuro di sistemi sociali complessi, e che essa non potr mai essere racchiusa nella pur
ingegnosa trovata di Stiglitz, basata pi semplicemente su una distribuzione non
omogenea delle informazioni. Altri hanno chiesto, provocatoriamente, se Stiglitz
sarebbe monetarista in un mondo privo di asimmetrie informative, ossia se soltanto a
tali asimmetrie egli imputi la fragilit strutturale del modello neoclassico sottostante ai
contributi di Friedman e Lucas. Questa in effetti una domanda pertinente. Come
abbiamo detto, infatti, Stiglitz accetta lidea secondo cui alti salari generano
disoccupazione e quindi di fatto aderisce alla discussa tesi neoclassica di una relazione
inversa tra retribuzioni e assunzioni. Altri ancora hanno fatto notare che in fondo le
73

analisi di Stiglitz conducono a indicazioni di politica economica non troppo distanti da


quelle dei monetaristi: per esempio, stando alle analisi delleconomista della Columbia,
se i sussidi di disoccupazione fossero ridotti il timore di perdere il posto aumenterebbe e
quindi i lavoratori risulterebbero pi disciplinati e produttivi.
Non vi dunque consenso unanime sulla rilevanza dellinformazione asimmetrica per
linterpretazione della realt economica, n sulla precisa collocazione ideologico-
politica dei cosiddetti nuovi keynesiani. Le asimmetrie informative hanno tuttavia
consentito agli esponenti della nuova economia keynesiana di riabilitare il concetto di
equilibrio con disoccupazione, e di riaffermare quindi l'esigenza di un intervento
pubblico nelleconomia. Un intervento che tuttavia dovrebbe esser ben ponderato e non
strumentale. Appena ricevuto il Nobel, Stiglitz non ha mancato di sferrare un duro
attacco al finto keynesismo dellAmministrazione Bush, a suo avviso dedita a
garantire sgravi fiscali ai soli ceti abbienti, che determineranno ulteriori sperequazioni
tra ricchi e poveri e che non aiuteranno il paese a uscire dalla recessione. Per Stiglitz la
strada giusta per condurre leconomia americana fuori dal tunnel della crisi una spesa
statale volta al sostegno degli investimenti pubblici civili e delle categorie pi deboli e
svantaggiate, non certo al rilancio militare. I nuovi Nobel per leconomia, insomma, non
sembrano avere intenzione di far sconti allattuale Amministrazione americana (11
ottobre 2001).

2 Laboratori per analisi di mercato

LAccademia delle scienze di Svezia ha assegnato il Nobel per leconomia 2002 agli
americani Daniel Kahneman e Vernon Smith, per i loro studi nei rispettivi campi
della piscologia cognitiva in ambito economico e dellanalisi sperimentale sul
funzionamento dei mercati. Il successo di Kahneman e Smith riflette il crescente
interesse degli economisti verso la possibilit di verificare la robustezza dei loro modelli
teorici tramite appositi esperimenti di laboratorio. Allorigine di questa nuova economia
sperimentale vi una crescente insoddisfazione verso il tradizionale approccio
deduttivo, secondo il quale la forza della teoria economica non risiederebbe nel grado di
aderenza ai dati empirici ma nella capacit di derivare delle proposizioni logicamente
coerenti da una serie di assiomi iniziali. Da questo approccio, a lungo dominante,
scaturito il modello neoclassico di equilibrio concorrenziale di Arrow e Debreu, un
irrinunciabile riferimento teorico per tutti gli economisti, sia per i sostenitori delle virt
taumaturgiche del libero mercato che per i suoi critici pi severi. I Nobel 2002, tuttavia,
hanno sempre guardato con scetticismo al modello Arrow-Debreu e agli altri maestosi
edifici teorici creati dal filone deduttivista. Vernon Smith, in particolare, considera tali
modelli il prodotto effimero di una teoria che egli definisce ecclesiastica, poich essa
verrebbe accettata o respinta sulla base di autorit, tradizioni e opinioni sulle assunzioni
iniziali, piuttosto che in virt della loro capacit di sopravvivere a rigorose, nonch
replicabili, verifiche empiriche.
Un tipico vizio ecclesiastico della teoria economica dominante risiederebbe ad
esempio nelle ipotesi che sono alla base dellanalisi del comportamento individuale.
Questa analisi si basa infatti sui cosiddetti principi di invarianza, transitivit e
dominanza: secondo tali principi, se un individuo preferisce gli esiti di una scelta A a
quelli di una scelta B e gli esiti di una scelta B a quelli di una scelta C, allora dovr
74

logicamente preferire anche gli esiti di A a quelli di C. Lintera teoria standard del
comportamento irriducibilmente ancorata a tale assunto: i suoi costruttori hanno
sempre saputo che una sua eventuale smentita avrebbe avuto leffetto di un vero e
proprio terremoto sul palinsesto teorico dominante.
Alla fine in effetti il terremoto arrivato, e i lavori di Kahneman possono in un
certo senso esser considerati il sussulto scatenante. Tra la fine degli anni 70 e linizio
degli anni 80 Kahneman realizz numerosi esperimenti di laboratorio basati
sullosservazione di alcuni gruppi di individui selezionati. I test si concentrarono
soprattutto sul comportamento di questi soggetti in situazioni di incertezza. Dagli
esperimenti Kahneman trasse la conclusione che gli esseri umani compiono scelte
fortemente condizionate da errori percettivi, e quindi non in grado di rispettare i principi
base della teoria dominante. Molte cavie, ad esempio, dopo aver dichiarato di
preferire A a B e B a C, manifestavano anche una preferenza verso C rispetto ad A,
agendo cos in totale contrasto con il fondamentale postulato neoclassico di transitivit.
Gli errori rilevati da Kahneman sono stati in seguito adoperati per dare
supporto a unassunzione sul comportamento dei lavoratori che era stata
originariamente avanzata da Keynes nella General Theory, e che stata poi riproposta
dagli economisti della sintesi neoclassica e da alcuni nuovi keynesiani. Lipotesi che,
in un contesto di incertezza, i lavoratori considerano il salario monetario che ricevono in
un dato momento come una sorta di pavimento per eventuali successive
contrattazioni. I salariati sarebbero cio ostili a riduzioni della retribuzione monetaria al
di sotto del pavimento, ritenendole non oneste; al tempo stesso, per, essi
dedicherebbero minore attenzione al salario reale, cio alleffettivo potere dacquisto
delle paghe. Stando a questa ipotesi, dunque, i lavoratori sono troppo concentrati sul
livello del salario monetario e appaiono invece distratti sul suo valore reale. Ecco perch
essi rischiano di subire passivamente lerosione dei loro poteri dacquisto causata
dallinflazione.
In effetti, i dati dellultimo ventennio confermano in modo drammatico le
conclusioni degli economisti sperimentali circa la scarsa reattivit dei lavoratori alla
perdita di valore reale delle loro retribuzioni. Daltro canto, suscita perplessit il
tentativo di fare risalire questo comportamento passivo nei confronti dellinflazione a
meri errori percettivi. Sotto questo aspetto gli economisti sperimentali manifestano un
limite comune ai deduttivisti e agli altri sostenitori dellindividualismo metodologico,
che verte sulla pretesa di spiegare tutti i fenomeni sociali in base a modelli di
comportamento individuale. Di fronte allandamento dei salari e degli altri grandi
aggregati, gli economisti sperimentali condividono con la scuola assiomatica dominante
la scelta di evitare qualsiasi rinvio a interpretazioni alternative e forse politicamente
scomode, come ad esempio quella che verte sui processi di deregolamentazione dei
mercati e di frammentazione del lavoro che si sono verificati in questi anni, e che
hanno conseguentemente provocato un radicale mutamento nei rapporti di forza tra le
classi sociali. Forse allora il problema non verte tanto su fenomeni di distrazione
monetaria dei lavoratori quanto piuttosto sullo stato di soggezione contrattuale in cui
essi si trovano costretti (10 ottobre 2002).
75

3. Teoria e dati: un nuovo matrimonio ortodosso

Sequenze interminabili di dati statistici da un lato, e lambizione di estrarre da essi una ipotesi
generale sul comportamento umano dallaltro. Un obiettivo tra i pi arditi e controversi, sul
quale tuttavia da tempo la ricerca economica sembra essersi orientata. Per il secondo anno
consecutivo, infatti, il premio Nobel 2003 per leconomia viene assegnato a degli studiosi che si
sono dedicati allimpresa di rafforzare il fragile ponte concettuale tra le eleganti astrazioni della
teoria e la brutale concretezza del dato empirico. Robert Engle della New York University e
Clive Granger della Universit della California hanno conseguito ieri lambito riconoscimento
grazie alla scoperta di nuovi metodi di trattamento di una tipica serie di dati statistici, quelli
caratterizzati da forte volatilit e da andamenti non stazionari. La scoperta ha avuto uneco
molto vasta allinterno della comunit degli economisti, dal momento che quasi tutte le variabili
che sono oggetto dei loro studi - prezzi, salari, interessi, tassi di cambio presentano delle
dinamiche volatili e tuttaltro che stazionarie. Ci significa, per esempio, che se prendiamo una
serie di dati riferita ad esempio ai prezzi delle azioni registrati a Wall Street nel corso del 900,
scopriremo che praticamente impossibile sintetizzare graficamente quella serie attraverso
una semplice linea retta. Esisteranno infatti dei lassi di tempo in cui un mero rettilineo sarebbe
del tutto inadeguato per spiegare i movimenti dei prezzi, a causa delle vistose oscillazioni degli
stessi o di veri e propri salti rispetto ai valori precedenti.
Un tempo, quando si trattava di derivare delle ipotesi sul comportamento umano
dallanalisi dei dati disponibili, gli economisti si affidavano per lappunto alla eroica
semplificazione della retta. Oggi, invece, grazie anche ai contributi di Engle e Granger, gli
economisti dispongono di strumenti di analisi molto pi sofisticati. Tali strumenti sono in grado
di fare a meno di quella semplificazione e appaiono quindi capaci, almeno in linea di principio,
di orientare meglio i ricercatori che dai dati volessero provare a estrapolare conferme o smentite
delle varie teorie. In tal modo i lavori di Engle e Granger sembrano aiutare al superamento di
alcune famigerate contraddizioni tra i momenti dellanalisi teorica e le fasi di applicazione della
ricerca. Prendiamo ad esempio la vecchia teoria di Gustav Cassel sulle parit dei poteri di
acquisto. Secondo questa teoria i tassi di cambio tra due valute riflettono landamento dei prezzi
nei rispettivi paesi. Un paese caratterizzato da elevata inflazione dei prezzi dovrebbe prima o
poi subire un calo nelle vendite delle proprie merci. I residenti esteri smetterebbero infatti di
comprarle e quindi non richiederebbero nemmeno la valuta nazionale necessaria agli acquisti. I
residenti interni, per parte loro, chiederebbero valuta estera per comprare le merci pi a buon
mercato che sono prodotte dagli altri paesi. A lungo andare, dunque, linflazione interna
dovrebbe necessariamente condurre a un deprezzamento della moneta nazionale. Questa teoria
in effetti stata largamente citata da economisti ortodossi e responsabili di governo per
giustificare le cosiddette politiche dei sacrifici, vale a dire le compressioni salariali atte a
impedire linflazione e la conseguente svalutazione. Il problema che per lungo tempo la tesi di
Cassel apparsa in contrasto con numerose serie storiche di dati: tra i vari contro esempi, basti
ricordare che negli anni 70 lo yen si rafforz in modo significativo rispetto al dollaro,
nonostante che linflazione giapponese fosse pi elevata di quella americana. Ebbene, proprio
alcune ricerche ispirate ai contributi originari di Engle e Granger sembrano avere offerto una
chance di salvezza alla vecchia teoria di Cassel. Tali studi mostrano infatti che i contrasti tra i
dati e la teoria non sarebbero altro che il riflesso della influenza perturbatrice di un salto, vale
a dire uno shock coincidente con il crollo del regime di Bretton Woods. Una volta assorbito quel
salto, i dati sarebbero dunque tornati ai loro valori normali e la teoria di Cassel avrebbe
nuovamente ripreso a funzionare.
76

Bench il valore scientifico delle ricerche di Engle e Granger debba considerarsi fuori
discussione, non tutti gli economisti condividono lidea che un mero affinamento nellanalisi dei
dati possa costituire un banco inappellabile di verifica della bont delle teorie. Alcuni hanno
ricordato che per ogni serie di informazioni statistiche esisteranno infinite teorie compatibili con
essa. E i pi scettici hanno aggiunto che se anche una teoria si rivelasse incompatibile con
quelle informazioni, e se ci nonostante per ragioni ideologiche si volesse difenderla a tutti i
costi, allora varr sempre la vecchia massima di Mayer: se voi torturate i dati abbastanza a
lungo, essi alla fine confesseranno. Non occorre tuttavia giungere a un tale disfattismo
epistemologico per riconoscere che la questione molto delicata.. Un approfondimento del
rapporto fra la teoria e i dati resta tuttora condizione necessaria per la elaborazione di una lettura
materiale e oggettiva del mondo che ci circonda. Ma altrettanto vero che dopo lorgia
popperiana degli anni passati oggi quel rapporto viene indagato con maggiore circospezione,
nella consapevolezza che la conformit o meno ai numeri non pu facilmente dar luogo a un
giudizio definitivo sulla teoria esaminata. Almeno altrettanto importanti appaiono infatti i
giudizi sulla coerenza logica e sulla rilevanza storica degli schemi adottati. Pensiamo ad
esempio proprio alla teoria di Cassel. Prima ancora di soffermarsi sulla sua maggiore o minore
aderenza alle serie di dati, sarebbe bene ricordare che essa poggia su fondazioni neoclassiche,
ed quindi anchessa sottoponibile alle durissime accuse di irrilevanza e di incoerenza che gli
esponenti delle scuole di pensiero critico hanno rivolto alla teoria dominante per tutto il corso
del Novecento (9 ottobre 2003).

4 Lala destra del Nobel

Che gli altermondialisti si rassegnino. Questo il migliore dei mondi possibili, e


qualsiasi sforzo collettivo per modificarne i destini provocher solo danni. Dopo un
breve periodo di riposo il dottor Pangloss a quanto pare tornato in cattedra, come
testimonia lassegnazione del premio Nobel 2004 per leconomia al norvegese Finn E.
Kydland e allamericano Edward C. Prescott. Le aperture degli anni passati
alleconomia sperimentale e al timido interventismo politico dei Nuovi Keynesiani sono
gi state dimenticate. La decisione dellAccademia svedese delle scienze rappresenta un
ritorno alla pi rigida ortodossia neoclassica, che non solo esercita da tempo il proprio
dominio sulla produzione accademica e sulla formazione dei giovani economisti, ma
che ha pure inciso profondamente sul modo in cui oggi si concepisce il rapporto tra
democrazia e capitalismo. Per i loro studi nel campo delle fluttuazioni cicliche e della
politica economica, Kydland e Prescott possono essere annoverati tra i pi acuti
raffinatori della rivoluzione conservatrice dellultimo quarto di secolo, avviata in
campo economico da Milton Friedman e da Robert J. Lucas. Questo processo di
raffinazione teorica essenzialmente consistito nel portare alle estreme conseguenze il
positivismo metodologico abbozzato da Friedman e sviluppato da Lucas. Anche
Kydland e Prescott muovono infatti dallassunto che nella costruzione di un modello
economico qualsiasi premessa lecita, purch il modello sia in grado di riprodurre
correttamente landamento dei dati statistici osservati. Si pu dunque anche accettare
lidea che una massaia si comporti come se ogni sua scelta derivasse da complicati
programmi matematici di ottimizzazione. Quel che conta per questi economisti che
limprovvida assunzione non trovi sostanziali smentite nei dati. Rispetto ai pionieri di
questa ardita dottrina, la novit di Kydland e Prescott che essi appaiono in un certo
77

senso disposti a tutto pur di rendere compatibili teoria e dati. Basti notare che i loro
modelli si fondano su ipotesi tali da rendere la piena occupazione dei lavoratori un
risultato inevitabile. E per celare lo stridente contrasto tra un simile esito teorico e la
disoccupazione di massa americana degli anni 30 o quella persistente europea degli
anni 90, i due economisti arrivano a sostenere che in entrambi i casi si tratt di mera
disoccupazione volontaria, magari causata da un non meglio precisato regresso
tecnologico o al limite dalla scarsa propensione a lavorare che a loro avviso tipicamente
caratterizzerebbe gli europei. E se alla fine, nonostante ipotesi cos vantaggiose, il
divario tra i risultati del modello e i dati osservati dovesse persistere, si potr
efficacemente rimediare con la cosiddetta calibrazione, un sofisticato stratagemma
che nella sostanza arriva a combinare un matrimonio forzato tra la teoria e i dati, a colpi
di rettifiche e continui aggiustamenti dalluna e dallaltra parte.
Labolizione per decreto della disoccupazione conduce poi ad una
ragguardevole serie di implicazioni per la politica economica. Obiettivo chiave di
Kydland e Prescott di eliminare qualsiasi margine di discrezionalit allazione delle
banche centrali. Lintento di togliere legittimazione teorica a qualsiasi tentativo delle
autorit monetarie di reagire a una recessione con misure espansive. A tale scopo i due
economisti affermano che in un mondo di agenti razionali sussiste un problema di
incoerenza temporale nelle decisioni delle autorit politiche. Il concetto viene
solitamente esposto ricorrendo al caso dei dirottatori, un esempio alquanto macabro e
lontano dalle vicende economiche ma che rende piuttosto bene la logica del
ragionamento. Lesempio parte dallidea che, al fine di scoraggiare i dirottamenti aerei,
la maggior parte dei governi segua la regola di non negoziare mai con i dirottatori.
Supponiamo tuttavia che, nonostante la politica annunciata dal governo, avvenga
comunque un dirottamento. In questo caso le autorit potrebbero essere indotte a
negoziare, visto che il prezzo richiesto dai dirottatori difficilmente supererebbe gli
effetti devastanti della perdita di vite umane che si trovano sullaereo. Quindi la miglior
politica sembrerebbe esser questa: annunciare di non esser disposti a negoziare, ma poi
negoziare in caso di effettivo dirottamento. Se a questo punto si trasferisce il
ragionamento in ambito economico, si potrebbe pensare che alle autorit monetarie
convenga un atteggiamento analogo a quello appena descritto. Esse possono cio
annunciare una politica rigorosamente anti-inflazionista. I lavoratori di conseguenza si
attenderanno prezzi bassi, e dunque accetteranno salari monetari bassi. Le autorit
monetarie potrebbero allora approfittare di queste previsioni smentendo gli annunci e
attuando una politica espansiva. I prezzi aumenterebbero in modo imprevisto, e i
lavoratori quindi tarderebbero a reagire. La corsa dei prezzi e il ritardo dei salari
potrebbe indurre le imprese ad aumentare, almeno temporaneamente, loccupazione.
Leffetto sorpresa sembra dunque in grado di provocare benefici reali.
In realt, dicono Kydland e Prescott, lidea che una simile incoerenza temporale tra
annunci e decisioni possa dar luogo a risultati positivi viziata dallipotesi inaccettabile
che gli individui siano passivi, ossia che decidano le loro azioni in base alla sola
dichiarazione dintenti delle autorit e non al loro comportamento effettivo. Ma nei fatti
proprio la tendenza o meno dellautorit a smentirsi che si rivela decisiva, nel senso
che non appena gli annunci del governo dovessero mostrarsi non credibili, i singoli ne
terranno conto e agiranno di conseguenza. Per esempio, i sequestri di aerei da parte dei
dirottatori diventeranno allordine del giorno. E gli stessi lavoratori non reputeranno pi
credibili le promesse anti-inflazioniste del banchiere centrale. Partendo da questo tipo di
esempi, Kydland e Prescott hanno attaccato i vecchi modelli keynesiani e monetaristi di
78

prima generazione, accusati per lappunto di cristallizzare il comportamento degli


operatori privati in una serie di parametri fissi. Quei modelli, cio, erano rigidi e quindi
inservibili, poich non tenevano conto della reazione degli operatori alla maggiore o
minore coerenza tra gli annunci dellautorit politica e le sue azioni effettive. Ad
esempio, i vecchi modelli non tenevano conto della perdita di credibilit che subirebbe
una banca centrale che dichiari guerra allinflazione ma che poi si smentisca mettendosi
a stampare grandi quantit di biglietti. Da simili riflessioni teoriche i due autori hanno
quindi tratto espressi suggerimenti di carattere politico, secondo cui per convincere i
privati che i prezzi sono sotto controllo necessario rendere assolutamente credibile la
banca centrale, al limite legandole le mani, cio vincolandola allobiettivo della lotta
allinflazione con qualsiasi mezzo: dalla nomina di un banchiere centrale ultra
conservatore fino allinserimento del proposito draconiano di una inflazione zero fin
dentro la carta costituzionale.
A dimostrazione della pervasivit dei contributi di Kydland e Prescott si pu
ricordare che la proposta di costituzionalizzare lobiettivo della guerra allinflazione
ha avuto negli anni 90 un notevolissimo seguito in America Latina, e risulta tuttora
caldeggiata nientemeno che dalla Banca centrale europea. Le analisi dei monetaristi,
insomma, hanno offerto un importante supporto teorico a coloro i quali hanno agito in
questi anni per liberare i banchieri centrali da qualsiasi pressione sociale. Il fatto poi che
simili propositi si giustifichino con premesse teoriche inverosimili - come quelle che
rendono la disoccupazione un evento del tutto impossibile - viene considerato un
aspetto secondario dellintera faccenda. A pensarci bene questo atteggiamento ha una
sua logica profonda: dopotutto nella lotta politica contano principalmente i risultati,
mentre di solito si colloca in secondo piano lassurdit o meno degli assiomi da cui si
parte per giustificarli (12 ottobre 2004).

5 Nobel per leconomia ai teorici del disarmo

La legge del pendolo sembra valere anche a Stoccolma. Dopo la discussa assegnazione dei
Nobel 2004 per leconomia ai falchi del neo-monetarismo Kydland e Prescott, lAccademia
svedese delle scienze ha deciso questanno di attribuire lambita onorificenza a due giochisti
del disarmo nucleare. Lisraelo-americano Robert J. Aumann, classe 1930, della Hebrew
University di Gerusalemme, e lamericano Thomas C. Schelling, classe 1921, della University
of Maryland, sono stati premiati per avere rafforzato la nostra comprensione del conflitto e
della cooperazione attraverso la teoria dei giochi. Dove per teoria dei giochi si intende lo
studio di quelle situazioni - economiche, politiche, militari - in cui le scelte dei soggetti
coinvolti vengono effettuate in un contesto strategico, vale a dire un ambito in cui le
conseguenze dellazione di ognuno dipendono anche dalle azioni degli altri.
Difficilmente si sarebbero potuti premiare personaggi cos diversi tra loro. Da un lato
Aumann, mite professore, esperto matematico ed uomo di profonda fede religiosa. Dallaltro
lato Schelling, consigliere politico della Casa Bianca ed abilissimo comunicatore. Le loro
ricerche trovano per un fondamentale elemento comune nellinquietudine suscitata dalla guerra
fredda e nella volont di individuare meccanismi in grado di promuovere il disarmo nucleare.
Appena trentenne, Aumann fu rapito dalleloquio di Henry Kissinger, nel corso di una
conferenza in cui il futuro segretario di Stato americano accennava allimpiego della teoria dei
giochi per interpretare le travagliate relazioni diplomatiche dellepoca con lUnione Sovietica.
79

Per Aumann, che fino a quel momento aveva elogiato della matematica la sua assoluta
inutilit pratica, fu una specie di folgorazione rendersi conto che proprio le tecniche di cui si
stava occupando rientrassero tra i tasselli di una partita politica da cui dipendevano i destini di
tutto il genere umano. Da allora Aumann si dedic ad approfondire le ragioni che possono
condurre due o pi contendenti a delle soluzioni di cooperazione anzich di conflitto. In
particolare, il suo apporto fu decisivo per la generalizzazione di quello che in letteratura noto
come Folk Theorem, o teorema popolare. Secondo questo teorema, se un gioco non si basa su
una partita unica ma viene ripetuto nel tempo, allora sotto date condizioni verranno a
crearsi dei meccanismi di credibilit e di reputazione in grado di condurre le parti a dei risultati
di tipo cooperativo. Attraverso questi giochi si potr ad esempio giungere ad una spiegazione
formale del motivo per cui la guerra fredda tra Stati Uniti ed Unione Sovietica non sia mai
sfociata nellapocalisse nucleare. Lidea, in proposito, che ognuno dei contendenti sapeva che
laltro avrebbe cooperato solo se e nella misura in cui il primo avesse fatto altrettanto.
Qualsiasi deviazione dallequilibrio cooperativo da parte di uno dei giocatori avrebbe indotto
laltro a concretizzare la minaccia di premere il grilletto (trigger strategy, in gergo), vale a
dire di lanciare le testate nucleari. E questo spingeva entrambi a perseguire sentieri di tipo non
conflittuale.
Si potrebbe trarre da questi giochi un risultato alquanto banale, e cio che pur
muovendosi in modo del tutto auto-interessato, Kruscev e Kennedy non potevano che giungere
a risolvere pacificamente la crisi dei missili di Cuba. In realt per la struttura stessa dei giochi
pu esser complicata a piacimento, includendo elementi che rendono pi incerta e complessa
lindividuazione delle soluzioni. Un modo per complicare lanalisi, e per tentare di avvicinarla
maggiormente alla concreta prassi politica, viene descritto nellopera di maggiore successo di
Schelling: The Strategy of Conflict (1960). In essa lautore scrive che il potere di vincolare un
avversario pu dipendere dal potere di vincolare s stessi. Ed aggiunge che nella
contrattazione la debolezza pu essere un fattore di forza, la libert pu rivelarsi libert di
capitolare, e rompere i ponti dietro di s pu risultare la giusta strategia per sconfiggere il
nemico. Una dimostrazione immediata di questo concetto contenuta nella stessa minaccia
del grilletto, illustrata in precedenza. Se ad esempio i sovietici avessero sospettato che, una
volta attaccati gli Stati Uniti, questi ultimi non se la sarebbero sentita di rispondere al fuoco, la
tentazione da parte dei primi di lanciare loffensiva sarebbe stata fortissima. Qualcuno ricorder
forse War games, un cult movie adolescenziale degli anni 80. La pellicola iniziava proprio con
un esempio di ritrosia americana nella risposta al fuoco: messi alla prova da un attacco simulato,
gli addetti alle testate venivano colti da una crisi di coscienza e rinunciavano a schiacciare i
pulsanti di lancio dei missili. Il che induceva il Pentagono a provvedere a una totale
automatizzazione del sistema di difesa statunitense. Le considerazioni di Schelling non hanno
per rappresentato solo uno spunto per la fantapolitica hollywoodiana. Esse in un certo senso
sono diventate parte del linguaggio e della stessa azione di governo. Basti notare quanto il
concetto del rompere i ponti dietro di s somigli alla famigerata strategia del pazzo, che si
basava sul continuo e provocatorio sorvolo degli spazi aerei vietnamiti e sovietici da parte di
B52 americani carichi di bombe nucleari. Richard Nixon, con il placet dello stesso Kissinger,
riteneva che con simili pungoli sarebbe prima o poi riuscito a costringere i vietcong a sedersi al
tavolo delle trattative, in una fase delicatissima del conflitto.
Per come alla fine andarono le cose in Vietnam, non si pu dire che le intuizioni di
Schelling e le relative formalizzazioni degli esperti di teoria dei giochi si siano rivelate sempre
infallibili, almeno da un punto di vista predittivo. Del resto, per quanto altamente sofisticate sul
piano matematico, queste applicazioni teoriche suscitano nellanalista politico tradizionale un
80

comprensibile scetticismo. Soltanto una lettura molto naif del mondo potrebbe infatti indurre a
credere che la prassi politica, e quindi pi in generale il corso della storia, possano essere
racchiusi in strutture logiche cos fortemente condizionate da una serie innumerevole di ipotesi
di partenza, ed in grado tra laltro di dar luogo esclusivamente ad analisi di tipo parziale. Non
questa uningenuit di cui possano essere accusati Schelling e Aumann, che in generale hanno
valutato con grande prudenza il rapporto tra i loro modelli e lo svolgersi effettivo degli eventi
storici. Viene per da chiedersi se la strada seguita dai pi recenti sviluppi degli studi sociali, e
avvalorata dallorientamento dellAccademia delle scienze, sia quella pi adeguata alla
comprensione del mondo in cui viviamo. Al di l dei suoi pur rilevanti meriti, infatti, la teoria
dei giochi rimane ingabbiata negli angusti canoni dellindividualismo metodologico. Ci
significa che essa ammette solo agenti che perseguano dati obiettivi secondo un criterio di
gestione razionale e massimamente efficiente delle risorse e delle informazioni. Ma a pensarci
bene nella realt dei fatti simili agenti non esistono. Gli stessi obiettivi sono mutevoli, spesso
interdipendenti, e se di razionalit si pu parlare questa sembra attenere al meccanismo
impersonale di riproduzione dei sistemi di potere molto pi che al comportamento dei singoli
attori sociali. Qualcuno ha efficacemente sintetizzato queste evidenze sostenendo che la storia
pu esser considerata un processo senza soggetto. Un processo di cui molto difficilmente la
pur ingegnosa teoria dei giochi potr cogliere il moto profondo (11 ottobre 2005).

6 Il mite architetto del monetarismo

Siete disoccupati? Percepite bassi salari? Ebbene, che non vi venga in mente di
prendervela col banchiere centrale. E questo in fin dei conti il senso politico
dellassegnazione del premio Nobel 2006 per lEconomia allamericano Edmund
Phelps, 73 anni, docente presso la Columbia University. LAccademia svedese delle
Scienze non sembra esser stata scalfita dalle polemiche che fecero seguito
allattribuzione del Nobel 2004 ai neo-monetaristi Kydland e Prescott. La vittoria di
Phelps, infatti, costituisce lennesimo, reiterato tributo allortodossia neoclassica e
monetarista. Assieme a Milton Friedman, leconomista della Columbia offr negli anni
Sessanta un apporto decisivo per la riaffermazione in ambito accademico e politico del
principio ortodosso di neutralit della moneta e della politica economica. Di fatto
Phelps fu il primo a contestare in modo formalmente rigoroso unidea che era stata
avanzata dagli economisti Samuelson e Solow, e che allepoca risultava piuttosto in
voga nei circoli accademici. Si tratta dellidea secondo cui esistebbe un trade-off,
ossia una scelta politica, tra i due mali sociali della disoccupazione e dellinflazione.
Secondo questa visione, se le autorit di politica economica di un paese volessero
ridurre la disoccupazione allora dovrebbero necessariamente effettuare politiche
monetarie e fiscali tese ad espandere la domanda di merci. Questo per significa che
esse dovrebbero anche accettare la conseguenza indesiderata di un innalzamento
dellinflazione. Se invece le autorit volessero abbattere linflazione, si troverebbero
costrette ad imporre politiche restrittive e dovrebbero pertanto tollerare una caduta della
domanda di merci e un aumento dei disoccupati. La scelta della combinazione
ottimale tra disoccupazione e inflazione sarebbe dunque prettamente politica. Un
governo pi attento alle istanze sociali e del lavoro cercher di evitare in primo luogo la
piaga della disoccupazione. Un esecutivo pi sensibile alle richieste dei possessori di
capitale monetario cercher invece di contrastare lerosione delle ricchezze causata
81

dallinflazione. Nellottica di Samuelson e Solow, dunque, le politiche monetarie e


fiscali contano, nel senso che contribuiscono a determinare landamento economico del
sistema in modo decisivo e per giunta tuttaltro che neutrale dal punto di vista degli
interessi da difendere.
Samuelson e Solow ritenevano che lidea di una scelta politica tra
disoccupazione e inflazione derivasse dal pensiero di Keynes. Per la rivendicazione di
questa ascendenza essi in effetti godevano di un valido appiglio. Nella Teoria generale,
infatti, leconomista di Cambridge aveva accettato il principio dellortodossia
neoclassica secondo cui il salario reale cio il potere dacquisto effettivo del salario
monetario - deve necessariamente coincidere con la produttivit marginale dei
lavoratori. Lidea di fondo che, essendo data la quantit di capitale disponibile, la
produttivit degli eventuali nuovi occupati tende man mano a ridursi. Il lavoro cio
diventa via via abbondante e quindi sempre mano produttivo rispetto al capitale
esistente. Le imprese saranno pertanto disposte ad assumere nuovi lavoratori solo se il
loro salario reale diminuisce. Ma in che modo questa riduzione potrebbe avvenire?
Lidea keynesiana, sviluppata da Samuelson e Solow, era che un aumento della
domanda, provocando inflazione, avrebbe ridotto il potere dacquisto dei salari e
avrebbe pertanto spinto le imprese ad assumere nuovi lavoratori nonostante la loro
minore produttivit. Le politiche di espansione della domanda generano dunque
inflazione ma riducono pure la disoccupazione. Ecco dunque dimostrato il trade-off,
vale a dire lopportunit di una scelta politica tra i due mali.
In realt questa dimostrazione, frutto di una controversa miscela keynesiana di
tradizione e innovazione teorica, presentava numerosi punti deboli. Il limite individuato
da Phelps e dagli altri monetaristi era in fondo semplice: perch mai i lavoratori non
dovrebbero reagire al fenomeno inflazionistico richiedendo a loro volta un aumento
compensativo dei salari monetari? Perch mai dovrebbero accettare di lavorare di pi
nonostante la riduzione del salario reale? I monetaristi in altri termini rilevarono che il
trade-off dipendeva da un fenomeno di illusione monetaria degli operatori economici,
e in particolare dei lavoratori. Anticipando i pi recenti contributi in tema di
imperfezioni informative, Phelps forn dunque rigorose argomentazioni a sostegno
dellidea che questo tipo di illusioni potesse sussistere soltanto nel breve periodo.
Secondo Phelps, infatti, imprese e lavoratori sono come delle isole: essi conoscono
solo i loro prezzi e salari, ma non sono in grado di rilevare istantaneamente le dinamiche
dei prezzi e dei salari di tutti gli altri agenti economici. In un primo tempo, dunque, i
lavoratori potrebbero non rendersi conto che i prezzi delle merci vendute dalle altre
imprese stanno aumentando. A lungo andare, tuttavia, essi prenderanno coscienza della
situazione e quindi reagiranno allinflazione rifiutandosi di lavorare. Dunque non si pu
pi affermare che linflazione riduce la disoccupazione. Il trade-off svanito, e con esso
anche lidea keynesiana di potere intervenire politicamente sullandamento delle
variabili economiche. Il governo politico della moneta e della domanda risulta nel lungo
periodo neutrale, ossia ininfluente dal punto di vista della disoccupazione.
Come riconosciuto dallAccademia svedese delle scienze, la progenie dei
modelli di Phelps risulta oggi largamente utilizzata presso i centri di ricerca delle
banche centrali al fine di determinare gli orientamenti di politica monetaria. Oppure pi
semplicemente al fine di legittimarli. Liberati da qualsiasi responsabilit in merito
allandamento di lungo periodo della disoccupazione, i banchieri centrali si sentono
infatti autorizzati a fondare la loro azione quasi esclusivamente sul controllo dei prezzi.
Lennesimo conferimento del premio Nobel ad un sia pur mite sostenitore di questo
82

indirizzo politico sembra perci somigliare sempre di pi alla edificazione di un fortino


ideologico attorno allo status quo politico. Un fortino indubbiamente tempestivo, dato il
calo dei consensi verso le politiche liberiste, ma che appare al tempo stesso sempre pi
imbarazzante. Basti pensare che non solo il contributo di Phelps, ma la stessa
interpretazione ortodossa di Keynes avanzata da Samuelson e Solow, risultano
totalmente sguarnite di fronte alle sempre vive critiche esterna ed interna alla teoria
neoclassica del capitale. E non casuale che proprio da quelle critiche scaturiscano
interpretazioni del sistema capitalistico in cui il governo della moneta non affatto
neutrale, n dal punto di vista della disoccupazione n tanto meno da quello della
distribuzione del reddito. Ma queste sono teorie alternative che scottano, e che risultano
evidentemente poco adatte al clima freddo e conformista dellodierna Stoccolma (10
ottobre 2006).

7 Un Nobel alle regole del gioco

Leonid Hurwicz (90 anni, Universit del Minnesota), Eric Maskin (57 anni,
Universit di Princeton) e Roger Myerson (56 anni, Universit di Chicago) sono i
vincitori del premio Nobel 2007 per leconomia. Il primo nato a Mosca, ma tutti
cittadini americani, i tre sono stati insigniti dellonorificenza per aver posto le
fondamenta del mechanism design, vale a dire della teoria che fissa i criteri per la
scelta delle regole del gioco, sia nel campo delle transazioni economiche che in quello
degli accordi politici.
Pur rientrando nei canoni della teoria neoclassica dominante, il mechanism
design un complesso di modelli estremamente articolato, adattabile ad una
molteplicit di situazioni e di obiettivi. Myerson, ad esempio, ha adoperato questa
tecnica allo scopo di evidenziare i rischi per lincolumit dei cittadini americani che
potrebbero scaturire dal ferreo unilateralismo diplomatico dellAmministrazione Bush.
Tuttavia, e al di l delle intenzioni dei suoi ideatori, innegabile che il principale
utilizzo del mechanism design sia stato di tipo apologetico, ossia contro la revanche
interventista di questi anni e a favore delle libert di mercato. Per chiarire questo punto
va ricordato che, stando ai pi recenti sviluppi della teoria neoclassica dominante, il
mercato pu essere considerato il migliore meccanismo organizzativo dei rapporti tra gli
agenti economici soltanto sotto ipotesi molto restrittive: se cio la concorrenza
perfetta, se linformazione risulta pienamente ed equamente distribuita tra le parti e se
non vengono a determinarsi fenomeni che sfuggono alle trattative private, come ad
esempio gli effetti dellinquinamento atmosferico ed altre cosiddette esternalit.
Condizioni cos restrittive hanno evidentemente sollevato forti dubbi in merito alla
capacit della teoria neoclassica di sancire la superiorit del mercato capitalistico
rispetto alla pianificazione e alle altre forme di organizzazione delle relazioni sociali. Il
mechanism design, a detta di alcuni, sale alla ribalta proprio allo scopo di fugare tali
dubbi. Questa nuova teoria, infatti, si propone di mettere a confronto il mercato con altri
criteri di coordinamento dei rapporti sociali: il fine di individuare le regole del gioco
ottimali, vale a dire il meccanismo che sia in grado di assicurare la migliore allocazione
delle risorse pur in presenza di monopoli o di asimmetrie informative tra i vari agenti
economici. E il risultato, guarda caso, che gli antichi convincimenti del mainstream
vengono nella sostanza ristabiliti: sia pure in termini pi problematici che in passato, si
83

giunge infatti alla conclusione che, anche in presenza di imperfezioni e asimmetrie, il


mercato ottiene prestazioni almeno buone quanto gli altri meccanismi e merita quindi di
esser quasi sempre preferito. Lidea di fondo che tra le varie procedure di mercato ne
esister sempre una in grado di conseguire un risultato efficiente, senza dover quindi
scomodare gli antichi spettri dellinterventismo statale e della pianificazione.
Lesempio pi immediato, a questo riguardo, il cosiddetto scambio bilaterale. Si
immagini una situazione in cui Tizio intenda vendere un immobile e Caio abbia
interesse ad acquistarlo. A prima vista la sola condizione affinch lo scambio si realizzi
che Caio attribuisca allimmobile un valore superiore o al limite uguale a quello che
gli attribuisce Tizio. A ben guardare, tuttavia, questa una condizione non sufficiente
per il concretizzarsi della transazione. E possibile infatti che Tizio e Caio siano
strategicamente indotti a non rivelare immediatamente le loro preferenze. Il venditore
potrebbe infatti dichiarare un valore superiore e il compratore un valore inferiore a
quelli che essi hanno in mente. Ora, se le dichiarazioni si discostano troppo dalle
preferenze, pu accadere che il prezzo richiesto sia pi alto di quello offerto e che
pertanto lo scambio non si realizzi. In questo caso, lo scopo del mechanism design di
individuare le regole del gioco in grado di rivelare il pi possibile le preferenze effettive
degli agenti. La teoria dimostra che in tal caso il meccanismo ottimale non quello del
prendere o lasciare ma si basa su unasta doppia, in cui prima le parti scrivono su dei
biglietti il valore assegnato allimmobile e poi passano alla contemporanea lettura degli
stessi. Con questo sistema pi probabile che la transazione alla fine venga eseguita,
con mutuo vantaggio di entrambe le parti. Il punto chiave, comunque, che tale
procedura, per quanto sofisticata, rimane nellalveo dei meccanismi di mercato, ed
esclude quindi la necessit di ricorrere allintervento pubblico per ottenere risultati
efficienti.
Naturalmente, dalla semplice soluzione dellasta doppia per lo scambio
bilaterale si pu in seguito passare allanalisi di strutture contrattuali molto pi
complesse. Alcune di queste, in effetti, sono state realmente impiegate nel corso di
transazioni di notevole rilevanza politica. Basti ricordare luso del mechanism design
per la definizione dei criteri con i quali venne istituita lasta per la privatizzazione della
rete telefonica britannica, una delle pi costose e controverse della storia. Ma anche nel
nostro paese il mechanism design stato recentemente invocato per tentare di sciogliere
i nodi relativi alla sofferta privatizzazione di Alitalia. Evidentemente anche dalle nostre
parti va diffondendosi il convincimento che simili strumenti tecnici possano contribuire
a risolvere dei contrasti di origine principalmente politica. E questa unidea che in
alcune specifiche circostanze potrebbe anche rivelarsi sensata, ma che nei casi pi
significativi appare fuorviante. Si pensi ad esempio al conflitto per eccellenza, quello tra
le classi sociali. Come abbiamo rilevato dallesempio sullo scambio bilaterale, la teoria
del mechanism design punta ad evitare che una transazione mutuamente vantaggiosa
non resti in sospeso ma venga effettivamente a compiersi. Se per Tizio un lavoratore
e Caio un imprenditore, e se quindi loggetto della transazione non un immobile ma
la forza-lavoro di Tizio, chiaro che viene a cadere lo scopo stesso della teoria.
Sappiamo bene, infatti, che il lavoratore tale proprio perch non quasi mai libero di
scegliere se effettuare o meno lo scambio: per lui il salario vita, e quindi la transazione
gli risulta pressoch obbligata. La scomoda posizione in cui il lavoratore versa non
dunque causata da una banale asimmetria informativa, ma deriva da una ben pi
profonda soggezione di classe. Il problema che per esaminare questultima il
mechanism design serve a poco (16 ottobre 2007).
84

8 La crisi secondo Krugman

Paul Krugman il vincitore del premio Nobel per leconomia 2008, per i suoi
contributi in tema di scambi commerciali e di localizzazioni delle attivit economiche
a livello mondiale. Nato nel 1953 a New York, docente presso la Princeton University,
Krugman gode di larga fama presso il grande pubblico soprattutto per la sua prolifica
attivit divulgativa. Editorialista prima della rivista Slate e oggi del New York Times,
Krugman si caratterizza per uno stile indubbiamente corrosivo ma per delle ricette che
potrebbero in fin dei conti esser considerate di moderato buon senso. In effetti, proprio
per questa sua miscela di aggressivit nei modi e di pacatezza nelle proposte, egli
sembra avere incarnato meglio di ogni altro opinionista la ovattata cultura liberal
americana del nuovo secolo. Krugman infatti non assolutamente un radicale. Sul piano
teorico leconomista ha sostanzialmente difeso il paradigma neoclassico dominante, sia
pure ritoccato in alcuni suoi punti. Sul piano politico, egli stato non solo un impietoso
fustigatore delle amministrazioni repubblicane statunitensi ma anche dei governi
socialisti francesi dei primi anni Ottanta, e si in generale contraddistinto per delle
proposte di limitato interventismo keynesiano (gi tipiche del resto dei suoi mentori del
MIT, Samuelson e Solow).
Ma in che senso Krugman ha contribuito al ritocco e allammodernamento della
teoria neoclassica? Linnovazione cruciale che ha contraddistinto i suoi contributi
riguarda i cosiddetti rendimenti di scala, vale a dire i guadagni di efficienza che si
possono ottenere dallaumento della scala di produzione. Nelle analisi neoclassiche
tradizionali veniva esclusa la possibilit che al crescere della produzione potesse
aumentare la produttivit dei fattori e quindi potessero ridursi i costi di ogni singola
merce. Tuttavia nella realt dei fatti accade spesso che laumento delle dimensioni
dellattivit economica permetta di aumentare lefficienza del processo produttivo. Il
caso di scuola quello di un magazzino il cui costo viene calcolato in base ai metri
quadrati che occupa, ma la cui capacit di carico viene determinata dalla cubatura. Se
dunque il magazzino si ingrandisce la sua capacit aumenter al cubo mentre i costi
cresceranno solo al quadrato, il che evidentemente potr dare luogo a una espansione
dei profitti netti. Ma si pensi anche alla possibilit di organizzare e di mettere in
relazione i lavoratori in modo pi efficiente al crescere delle dimensioni e della
concentrazione dellattivit economica. E questa una caratteristica non solo dei vecchi
regimi tayloristici ma anche dei pi moderni processi basati sul continuo scambio di
esperienze e di informazioni. Entro certi limiti, dunque, il gigantismo delle imprese pu
determinare un abbattimento dei costi e quindi una maggiore competitivit. Partendo da
queste semplici intuizioni Krugman ha saputo costruire dei modelli estremamente chiari
ed eleganti, dedicati soprattutto allanalisi degli scambi commerciali e della
localizzazione internazionale delle imprese; vale a dire, di quella che in gergo stata
talvolta definita leconomia dello spazio. Le conclusioni di questa nuova branca della
teoria neoclassica sono state il pi delle volte di conforto allideologia dellapertura
totale dei mercati e del libero scambio. Ma sono emerse da essa pure delle riflessioni
inquietanti sul possibile sviluppo futuro delle relazioni economiche internazionali. Per
esempio, in base alle sue analisi Krugman arrivato a sostenere che lintegrazione dei
85

mercati causata dallunificazione europea potrebbe scatenare un gigantesco movimento


migratorio di capitali e di lavoratori, dalle zone periferiche verso le aree centrali del
continente. Lobiettivo di sfruttare al massimo i rendimenti di scala determinati dal
gigantismo potrebbe cio determinare una sorta di mezzogiornificazione delle
periferie meridionali dEuropa, a tutto vantaggio del quadrilatero industriale situato in
prevalenza entro i confini della Germania.
In effetti, non sempre i risultati delle analisi di Krugman hanno trovato conferma
nei dati empirici. La tesi della mezzogiornificazione delle periferie europee ad
esempio trova diversi riscontri ed in linea generale condivisibile. Tuttavia essa sembra
manifestarsi in termini finanziari oltre che fisici, e pare aver bisogno di spiegazioni pi
complesse rispetto al semplice fenomeno tecnico dei rendimenti di scala generati dal
gigantismo industriale. Ad un loro esame approfondito, insomma, i modelli di Krugman
colgono alcuni nodi ma non sembrano in grado di andare molto al di l di una lettura
superficiale delle tendenze in atto. Il che si spiega, a nostro avviso, con il fatto che le
strutture logiche delleconomista americano restano saldamente ancorate al paradigma
neoclassico dominante. Riguardo ai suoi modelli di commercio e di localizzazione, basti
pensare che essi di fatto si basano sulla eroica tesi neoclassica della piena occupazione
dei lavoratori e degli altri fattori produttivi esistenti. Ma una dipendenza analoga dagli
stringenti vincoli neoclassici pu essere ravvisata anche nei suoi modelli di previsione
delle crisi economiche, che molto hanno fatto discutere soprattutto nel corso dellattuale
emergenza finanziaria. Va ricordato infatti che Krugman stato uno dei pi strenui
oppositori del Piano Paulson di salvataggio delle banche americane. Egli ha criticato il
piano sulla base di considerazioni di buon senso politico, come quella secondo cui lo
Stato avrebbe dovuto acquistare direttamente le banche e non semplicemente i loro titoli
spazzatura. Tuttavia, riguardo alle determinanti profonde della crisi Krugman ha fornito
unanalisi discutibile, che in linea con la vecchia tradizione della sintesi neoclassica: si
tratta infatti di una spiegazione di tipo meramente soggettivo e psicologico, fondata sul
rischio di uno stallo nei meccanismi di fiducia necessari al corretto funzionamento del
sistema finanziario. E questa una linea interpretativa che del resto contraddistingue non
solo leconomista americano ma anche numerosi osservatori nostrani della tempesta
finanziaria, da Lorenzo Bini Smaghi a Francesco Giavazzi. Lidea pi o meno implicita
di questi autori che, se si ripristinano i meccanismi istituzionali necessari per
risollevare la fiducia, le cose dovrebbero tornare a posto. Alle interpretazioni di
Krugman e degli altri possibile tuttavia contrapporre una lettura alternativa della crisi:
quella di tipo oggettivo, tipica delle scuole di pensiero critico, che si sofferma, tra
laltro, sul dato materiale della colossale sperequazione tra profitti e salari. Secondo tali
interpretazioni critiche, alcune tra le complesse cause della emergenza finanziaria
possono essere individuate nel mondo di bassi salari che si creato attraverso anni di
deregolamentazione dei mercati, da quelli finanziari a quello del lavoro. Lo
schiacciamento mondiale dei salari diretti e indiretti ha infatti aperto una gigantesca
forbice distributiva, che non aveva finora avuto riflessi sulla domanda di merci grazie
alla capacit degli Stati Uniti di assorbire le eccedenze produttive mondiali tramite una
enorme espansione del debito privato. Una volta per scoppiata la bolla del debito, si fa
adesso concreto il pericolo che la produzione globale si incagli in una crisi generale,
fatta di squilibri, sproporzioni e depressioni.
Krugman ha talvolta circumnavigato questa interpretazione critica della crisi,
negando tuttavia che i problemi attinenti alla distribuzione del reddito potessero
spiegare quelli relativi al livello del reddito e delloccupazione. Ma da un premio Nobel
86

allevato al MIT di Boston non si poteva pretendere che sposasse senza indugio una
chiave di lettura che un tempo si sarebbe definita di classe. Capita tuttavia che proprio
dal punto di vista di un interesse specifico, quello del lavoro, si riescano a individuare
alcune delle cause profonde delle tendenze storiche in atto, e quindi anche dello
sconquasso finanziario di questi mesi. Con o senza laiuto di Krugman, dunque, sarebbe
utile approfondire questa specifica interpretazione, materiale e oggettiva, di una
tempesta finanziaria che potrebbe a lungo andare tramutarsi in un vero e proprio tracollo
occupazionale e retributivo (14 ottobre 2008).

9 Squarci nel buio oltre la siepe del mercato

Nata nel 1933 a Los Angeles, lamericana Elinor Ostrom dellUniversit dellIndiana
la prima donna ad aver conquistato il premio Nobel per lEconomia [1]. Il
riconoscimento le viene assegnato in coabitazione con il connazionale Oliver
Williamson, nato a Superior nel 1932 e docente presso lUniversit di Berkeley. In
apparenza siamo al cospetto di due studiosi molto lontani tra loro. Williamson un
teorico dellimpresa particolarmente innovativo, che tuttavia rimasto sempre con i
piedi ben piantati nel filone tradizionale neoclassico fondato sulla ipotesi di agenti
economici egoisti e razionali. Ostrom ha seguito invece un itinerario di ricerca atipico,
scandito da pubblicazioni sulla prestigiosa Science e su riviste politologiche pi spesso
che economiche, e costellato da ricerche empiriche tese a evidenziare quei tipici aspetti
comunitari del comportamento umano che smaccatamente travalicano gli angusti
confini ortodossi dellhomo oeconomicus. Tuttavia, come nota lAccademia delle
scienze di Svezia, entrambi gli studiosi hanno fornito contributi decisivi per lanalisi
delle transazioni economiche che si verificano al di fuori del mercato.
Il principale apporto di Ostrom, al riguardo, consiste in una inedita
interpretazione dei meccanismi che governano lo sfruttamento di beni comuni come i
laghi, i pascoli, i boschi, e in generale le risorse naturali condivise. Gli studi passati
erano dominati da una concezione che va sotto il nome di tragedia delle propriet
comuni: per impedire lo sfruttamento indiscriminato e il depauperamento di queste
risorse occorrerebbe necessariamente privatizzarle, oppure al limite bisognerebbe
sottoporle al controllo del governo. Ostrom contesta questo tipo di conclusioni,
ritenendole viziate da una rozza teoria individualista dellazione umana. In effetti i dati
empirici che raccoglie nel corso delle sue ricerche sembrano in varie circostanze darle
ragione: soprattutto nelle aree rurali, situate ai margini dello sviluppo capitalistico, pu
accadere che una gestione comune delle risorse - basata su regole condivise dagli
abitanti del luogo e sedimentate nel tempo - risulti pi efficiente delle gestioni fondate
sulla rigida assegnazione di specifici diritti di propriet e di controllo a favore dei privati
oppure dello Stato. E il caso questo dei terreni della Mongolia coltivati in comune,
decisamente pi produttivi di quelli confinanti della Cina e della Russia, sottoposti a
inefficienti sistemi di gestione prima statale e successivamente privata. Ed anche il
caso dei sistemi di irrigazione del Nepal, la cui efficienza sembra esser crollata dopo
labbandono della gestione in comune da parte degli abitanti, verificatasi a seguito di
massicci interventi di ammodernamento da parte del governo in joint venture con alcuni
finanziatori esteri. Gli esempi di questo tenore riportati da Ostrom e dai suoi
collaboratori sono numerosi. Essi tuttavia non stanno ad indicare che la propriet
comune delle risorse sia sempre preferibile alle gestioni private o statali. Esaminando
87

questi casi la politologa americana ha voluto piuttosto mostrare che in genere la


propriet comune rappresenta lesito di un plurisecolare processo di evoluzione e di
consolidamento di un insieme di regole condivise da una popolazione. Ed proprio
questa lentissima sedimentazione delle norme e delle procedure che sembra garantirne
la corretta applicazione e quindi il successo. Alcuni economisti hanno in questo senso
provato a interpretare teoricamente i risultati empirici di Ostrom nei termini di quello
che viene in gergo definito un gioco ripetuto, che da conflittuale diviene col tempo
cooperativo. In base a questa visione gli individui sarebbero naturalmente egoisti, ma
dopo aver compreso che le loro azioni opportunistiche conducono a risultati fallimentari
per tutti, si vedono a lungo andare costretti a cooperare con gli altri. Ostrom per ha
fortemente criticato questa chiave di lettura, considerandola un tentativo del mainstream
di rinchiudere le sue analisi nei vecchi canoni dellindividualismo neoclassico. Non un
caso che le sue pi recenti verifiche di laboratorio siano state centrate sullobiettivo di
mostrare che molte persone sembrano disposte ad accollarsi individualmente elevati
costi di monitoraggio pur di garantire che le regole comuni siano applicate e che i
trasgressori siano puniti. Un esito, questo, di fronte al quale i costruttori dei tipici
modelli neoclassici di comportamento egoistico e massimizzante esprimono un
comprensibile imbarazzo.
Le ricerche di Williamson si concentrano invece sui motivi per i quali le imprese
nascono e si espandono. Lidea di partenza che in un ipotetico sistema di pura
concorrenza, del tutto privo di imperfezioni e asimmetrie, non vi sarebbe alcun bisogno
di costituire unimpresa: la produzione potrebbe avvenire attraverso contratti di volta in
volta stipulati tra i vari agenti economici, siano essi capitalisti, manager o lavoratori.
Come ha ironicamente affermato Paul Samuelson, in un simile idealtipico scenario non
avrebbe proprio nessuna importanza chi assume chi: al limite potremmo anche
immaginare che il lavoro assuma il capitale [2]. Se tuttavia si ammettono costi di
transazione, incompletezza dei contratti e incertezza sul futuro, i meri scambi di mercato
possono rivelarsi inadeguati alla risoluzione delle controversie tra gli agenti. Ecco allora
che sorge la necessit di costituire unimpresa, vale a dire una organizzazione basata
non pi sul libero scambio ma sulla gerarchia. Naturalmente, precisa Williamson, anche
i rapporti gerarchici possono dar luogo a inefficienze, determinate da una gestione
arbitraria delle risorse da parte di chi comanda. Tuttavia, ogni volta che i costi degli
scambi risultino superiori ai costi derivanti dal controllo gerarchico, il rapporto di potere
interno allimpresa tender a sostituirsi al rapporto di mercato tra soggetti formalmente
indipendenti. Una spinosa implicazione di politica economica di questa visione che
anche le fusioni e le acquisizioni tra imprese dovrebbero esser considerate una
conseguenza naturale dellobiettivo di minimizzare i costi di transazione. La grande
impresa cio decide di fagocitare le altre anzich trattare con loro semplicemente perch
mira a superare le incertezze e le inefficienze tipiche degli scambi di mercato. Sulla
base di questa teoria, Williamson dunque giunto alla conclusione che le imprese di
grandi dimensioni esistono perch sono efficienti, e possono quindi garantire un
maggior benessere per tutti, capitalisti, lavoratori e consumatori. Egli in effetti ammette
che lenorme centralizzazione di capitale che le caratterizza pu consentir loro di
esercitare pressioni lobbistiche per controllare i mercati ed eliminare qualsiasi
concorrenza. A suo parere tuttavia tali distorsioni andrebbero semplicemente regolate,
mentre bisognerebbe assolutamente evitare un ritorno alle vecchie politiche anti-trust
che imponevano limiti secchi alla crescita dimensionale delle corporations [3]
88

Sebbene non vi sia unanime consenso sulla loro piena validit empirica [4], gli
studi di Williamson hanno indubbiamente contribuito a una pi accurata comprensione
dei processi di espansione delle imprese, e pi in generale della centralizzazione dei
capitali. Cos come le ricerche di Ostrom hanno senzaltro fornito importanti elementi di
conoscenza per una gestione sostenibile dei beni comuni, e in particolare delle risorse
ambientali. Se tuttavia si guardano tali apporti nellottica di un aggiornato materialismo
storico, non si pu fare a meno di rilevare in essi alcune fragilit di fondo. Riguardo ad
Ostrom, c da dire che fin dallepoca degli studi di Marx sui terribili effetti delle
enclosures, il problema per i materialisti storici non mai stato quello di esaminare i
danni prodotti dalla distruzione delle propriet comuni, ma stato invece di
comprendere quali immani forze riuscissero inesorabilmente a disintegrare le forme
primitive di organizzazione comunitaria delle risorse, del tutto indipendentemente dalle
devastazioni economiche e sociali che quelle stesse forze provocavano. In effetti negli
ultimi tempi Ostrom sembra aver preso coscienza del rischio di una interpretazione per
cos dire conservatrice e nostalgica delle sue analisi, e si quindi impegnata ad
effettuare ricerche sulla gestione dei beni comuni non pi soltanto nei vecchi contesti
rurali e pre-capitalistici, ma anche in settori estremamente avanzati, come ad esempio
quello della produzione di conoscenza. In questo nuovo ambito tuttavia le sue
conclusioni sono per forza di cose divenute pi articolate e controverse. E chiaro infatti
che il campo della conoscenza scientifica e tecnologica attraversato pi di ogni altro
da continue innovazioni che sconvolgono il quadro delle relazioni economiche e sociali,
e che rendono quindi molto improbabile il verificarsi di quei lunghi processi di
sedimentazione delle regole che sono indispensabili per la costituzione dal basso di
forme di gestione comune delle risorse. Ecco perch, contro tutte le apparenze, il
nucleo dellanalisi di Ostrom sferra implicitamente un duro colpo a quei teorici delle
moltitudini che proprio nellambito della produzione di conoscenza vorrebbero
addirittura poter individuare i semi dello sviluppo spontaneo di nuove forme di
comunismo. Riguardo poi alle analisi di Williamson sulle modalit di costituzione e di
sviluppo dellimpresa, suscita molte perplessit lidea che queste siano governate da un
criterio di scelta ottimizzante tra scambio di mercato e gerarchia interna alla struttura
aziendale. In realt sia lo scambio che limpresa ineriscono al medesimo rapporto di
dominio: quello del capitale sul lavoro, che potr poi esprimersi nelluna o nellaltra
forma a seconda delle diverse contingenze e convenienze (non un caso che le
centralizzazioni del capitale avvengano spesso in concomitanza con poderosi processi di
esternalizzazione di alcune parti dellattivit produttiva) [5]. Tali critiche naturalmente
non possono gettare nellombra le importanti novit contenute nelle ricerche dei Nobel
2009 per lEconomia. Ad Ostrom e Williamson va senza dubbio riconosciuto il merito
di aver aperto squarci nel buio oltre la siepe del mercato, che i vecchi teorici
dellequilibrio generale neoclassico non osavano invece mai scavalcare. Bisogna per al
tempo stesso riconoscere che anche questanno rimaniamo alquanto lontani dai tempi in
cui laria di Stoccolma veniva infiammata dal vento della critica della teoria economica.
E questo un dato incoraggiante per una disciplina dalla quale molti si attendevano
nientemeno che una via duscita dalla Grande Crisi? Osiamo francamente dubitare. (13
ottobre 2009).

[1] Dal 1901 al 2009, escludendo i riconoscimenti conferiti a organizzazioni, i premi Nobel sono stati
assegnati a 802 persone, tra le quali soltanto 41 donne (il 5,1%). Il Nobel per la Pace stato assegnato a
12 donne su 97 premiati (il 12,3%). Il Nobel per la Letteratura stato conferito a 12 donne su 106
premiati (l11,3%). Il Nobel per la Medicina stato assegnato a 195 persone, tra cui 10 donne ( il 5,1%).
89

Il Nobel per la Chimica stato attribuito a 4 donne su 156 (il 2,5%). Il Nobel per la Fisica stato
assegnato a 2 donne su 186 premiati (appena l1%). Con la vittoria di Ostrom, il Nobel per lEconomia
assegnato solo a partire dal 1969 - passa da zero donne a una donna su 64 premiati, corrispondente
all1,5%.
[2] Paul Samuelson (1957), Wage and interest: a modern dissection of Marxian economic models,
American Economic Review, 47.
[3] Questa almeno linterpretazione degli indirizzi di politica per la concorrenza di Williamson che ci
viene offerta dai membri dellAccademia delle scienze di Svezia (Economic governance, compiled by
the Economic Sciences Prize Committe of the Royal Swedish Academy of Sciences; scaricabile dal sito
www.nobel.se), e che in effetti scaturisce dalla grande maggioranza dei contributi delleconomista di
Berkeley. Tuttavia, in un commento a caldo sullassegnazione dei Nobel 2009, Robert Solow ha suggerito
una pressoch opposta chiave di lettura della vittoria di Williamson. Solow a sua volta premiato nel
1987 - ha infatti dichiarato che potremmo e dovremmo interpretare il lavoro di Ollie Williamson come
un criterio per esaminare in che modo le grandi banche di investimento operano e come esse ci abbiano
portato a quel che in retrospettiva sembra un comportamento molto stupido e rischioso (intervista
rilasciata a Janina Pfalzer e Rich Miller di www.bloomberg.com). Resta da vedere se Williamson sia o
meno daccordo con questa peculiare interpretazione della sua opera.
[4] Il documento dellAccademia delle scienze di Svezia (cit.) fornisce numerosi riferimenti alle ricerche
che tendono a confermare sul piano empirico le ipotesi di Williamson sulle determinanti dei processi di
espansione e di integrazione verticale delle imprese. Non vi tuttavia alcuna citazione delle pur numerose
verifiche empiriche che sembrano fornire risultati pi controversi, e che aprono dunque la strada ad
interpretazioni teoriche alternative a quella di Williamson. Tra queste, si veda ad esempio Richard Carter
e Geoffrey M. Hodgson (2006),The impact of empirical tests on transaction costs economics on the
debate on the nature of the firm, Strategic Management Journal, 27.
[5] Diversi ordini di critiche di stampo istituzionalista o marxista sono state rivolte a Williamson e pi in
generale agli esponenti della New Institutional Economics. Tra i numerosissimi contributi, segnaliamo qui
Ugo Pagano (2000), Public markets, private orderings and corporate governance, International Review
of Law and Economics, 20, e Antonio Nicita e Ugo Pagano (2001), The evolution of economic diversity,
Routledge, London. Si veda anche Daniel Ankarloo e Giulio Palermo (2004), Anti-Williamson. A
marxian critique of new institutional economics, Cambridge Journal of Economics, 28.

10 Visioni minimaliste della disoccupazione

Peter Diamond (nato nel 1940 a New York e docente al MIT di Boston), Dale
Mortensen (nato nel 1939 in Oregon e docente alla Northwestern University) e
Christopher Pissarides (nato a Cipro nel 1938 e professore alla London School), sono
i vincitori del premio Nobel 2010 per lEconomia. Lonorificenza viene ad essi
assegnata per le analisi dei mercati caratterizzati da frizioni nel processo di incontro
tra domanda e offerta, con particolare riguardo alla domanda e allofferta di lavoro.
Mai come questanno le scelte dellAccademia svedese delle Scienze sembrano
intersecarsi con le spinose vicende dellattualit politica. Negli Stati Uniti la notizia
della vittoria di Diamond deve infatti aver suscitato non pochi imbarazzi tra le file del
Partito Repubblicano. Appena poche settimane fa i senatori repubblicani avevano
respinto la proposta della Casa Bianca di nominare leconomista del MIT nel board
della Federal Reserve. Lopposizione a Diamond derivava dal tentativo di impedire una
ulteriore designazione di marca democratica ai vertici della banca centrale statunitense.
Il portavoce repubblicano aveva per tentato di fornire un pi nobile pretesto per il voto
contrario del suo partito sostenendo che Diamond non avesse lesperienza necessaria
per lincarico. In effetti, al di l dei reali propositi, largomentazione non sarebbe del
tutto peregrina. Schumpeter riteneva che leconomista scientifico, per considerarsi
davvero tale, dovrebbe esser capace di padroneggiare una complessa variet di
90

discipline: dalla storia, alla statistica, alla teoria pura. Al giorno doggi per le cose sono
molto diverse e la specializzazione del lavoro condiziona pesantemente anche la
formazione degli economisti. Per molti di essi passare da un ambito di ricerca allaltro
pu risultare difficile quanto per un cardiochirurgo pu esserlo una diagnosi in campo
neuropsichiatrico. Non sembra per esser questo il caso di Diamond, che nel corso degli
anni ha continuamente mostrato di poter spaziare tra argomenti diversissimi, dalla
cosiddetta high theory ai problemi della previdenza, dalle analisi del mercato del
lavoro ai contributi in tema di tassazione. A coronamento di una cos lunga e articolata
carriera giunge adesso anche il conferimento del Nobel, che render piuttosto deboli gli
argomenti dei repubblicani e che sembra quindi preannunciare una vittoria di Obama,
gi da tempo fermamente intenzionato a riproporre al Senato la candidatura
delleconomista bostoniano al board della FED.
Ma c un motivo forse ancor pi interessante per il quale le decisioni di
Stoccolma potrebbero avere qualche immediata ricaduta sul dibattito politico. Tra gli
studi di Diamond, Mortensen e Pissarides vi sono infatti anche quelli dedicati alle
carenze di informazione e ai vari altri ostacoli che possono rendere difficile la ricerca
reciproca e lincontro tra lavoratori disoccupati e imprese intenzionate ad assumere.
Uno degli oggetti di questi studi la rivisitazione della cosiddetta curva di Beveridge,
una relazione che prende il nome da Lord Beveridge, noto economista e riformatore
sociale che nellimmediato dopoguerra contribu alla edificazione del moderno welfare
state britannico. Nella sua interpretazione tradizionale, la curva esprime un legame
statistico tra il numero di posti di lavoro disponibili e il numero dei disoccupati. In
genere questo legame dovrebbe risultare inverso. La ragione che in una situazione di
recessione causata da carenza di domanda i disoccupati saranno numerosi mentre i posti
disponibili saranno ben pochi. Di contro, in una fase di espansione della domanda e
della produzione, il numero dei disoccupati si riduce mentre i posti di lavoro vacanti
crescono a causa della crescente difficolt delle imprese di reperire lavoratori. Si viene
cos a delineare una sorta di curva che in corrispondenza di unalta disoccupazione
segnaler una bassa disponibilit di posti liberi, e viceversa. Conoscendo dunque il
numero dei disoccupati e il numero di posti disponibili, le autorit di governo
dovrebbero essere in grado di verificare, per esempio, se leconomia soffre o meno di
una carenza di domanda e se necessita quindi di politiche espansive.
Il problema che si pone che il rapporto tra posti vacanti e lavoratori disoccupati
pu cambiare, e quindi la curva di Beveridge pu subire degli improvvisi
spostamenti. Di recente negli Stati Uniti si proprio discusso di questa eventualit. Le
statistiche infatti segnalano un forte incremento dei disoccupati che, contrariamente a
quanto lascerebbe intendere la curva, risulta accompagnato non da una riduzione ma
da un moderato aumento dei posti disponibili. Tra gli economisti mainstream la
spiegazione convenzionale per questo fenomeno che la curva potrebbe essersi
spostata. C tuttavia un profondo disaccordo sui possibili motivi di questo
riposizionamento. Alcuni sostengono che lesistenza di tanta gente a spasso nonostante
la disponibilit di posti vacanti sia dovuta ai generosi sussidi ai disoccupati erogati
dallAmministrazione Obama. Dalle frange oltranziste del partito repubblicano il
Presidente viene per questo additato come una sorta di moderno Lafargue, colpevole di
indurre allozio gli altrimenti onesti e laboriosi operai americani. Contro questa tesi vi
invece quella di chi ritiene che lincremento contemporaneo dei disoccupati e dei posti
disponibili si spieghi con la grave crisi economica in corso e con le profonde
ristrutturazioni cui essa ha dato luogo. La grande recessione potrebbe cio aver
91

determinato non solo un crollo della produzione totale ma anche uno stravolgimento
delle proporzioni tra i vari settori produttivi, e quindi un mutamento delle qualifiche
richieste dalle imprese rispetto alle competenze effettive dei disoccupati. Il fatto che
laumento dei disoccupati sia stato finora molto pi marcato rispetto allaumento dei
posti vacanti farebbe logicamente propendere verso questa seconda possibilit. Se per
si osservano i dati dal punto di vista delle teorie premiate il ragionamento tende a
complicarsi. Dalle ricerche di Diamond, Mortensen e Pissarides si possono infatti trarre
conclusioni favorevoli sia alluna che allaltra interpretazione. Anzi, se si guarda alle
versioni elementari dei modelli di Pissarides si scopre che in esse la possibilit stessa di
un crollo della domanda non viene nemmeno contemplata. Nelle versioni pi sofisticate
di questi modelli la crisi da domanda viene ammessa, ma solo nei termini di una
deviazione temporanea dallequilibrio del sistema. Nel lungo termine, la disoccupazione
dovr quindi sempre essere interpretata in una chiave che potremmo definire
minimalista, ossia quale mero problema di mancato incontro tra domanda e offerta di
lavoro e non come il riflesso di una crisi generalizzata che possa lungamente deprimere
prima luna e poi laltra. Insomma, non sembra esservi modo in queste analisi di
concepire la carenza di domanda effettiva come una malattia che pu protrarsi nel
lungo periodo. Tale difficolt in effetti abbastanza comune a tutto il variegato
arcipelago della teoria economica mainstream. Dati i tempi, c chi ritiene che essa stia
diventando anche un po frustrante.

11 Tra sussidi ai disoccupati e salvataggi bancari

Il premio Nobel 2011 per l'Economia stato assegnato agli statunitensi Thomas J.
Sargent (Universit di New York) e Christopher A. Sims (Universit di Princeton).
Alla base del riconoscimento, ladozione di nuovi metodi empirici per analizzare i
reciproci rapporti di causa ed effetto tra le decisioni delle autorit pubbliche da un lato,
e il comportamento degli agenti privati dallaltro. Lidea di fondo che non soltanto la
politica economica incide sulle aspettative e sui comportamenti dei privati, ma le
previsioni e le azioni di questi ultimi, a loro volta, retroagiscono sulle decisioni
politiche.
Per gli esponenti delle cosiddette scienze dure lassegnazione dei Nobel una
prestigiosa occasione per redigere un bilancio delle dispute tra le diverse scuole di
pensiero. Per gli economisti lo ovviamente a fortiori, soprattutto in questi tempi
turbolenti, di crisi e di cigolio delle antiche certezze liberiste. In simili circostanze, la
tentazione un po brutale di collocare i vincitori in uno dei vari filoni di ricerca esistenti
particolarmente forte. Non si tratta per di una operazione sempre agevole. Sotto
questo aspetto, contrariamente alle apparenze, il contributo di Sims non
immediatamente etichettabile. Leconomista di Princeton infatti lideatore dei
cosiddetti modelli autoregressivi vettoriali, una tecnica di analisi dei dati empirici che
stata largamente adoperata non soltanto dagli esponenti della teoria economica
dominante, ma anche da studiosi eterodossi che adottano approcci di teoria critica. Negli
ultimi anni il campo di validit dei modelli di Sims stato per varie ragioni
ridimensionato, ma il fatto che essi abbiano avuto un enorme impatto sulla ricerca
econometrica mondiale, e che siano perfino riusciti a valicare i muri di incomunicabilit
tra le scuole di pensiero, assolutamente fuori discussione.
92

Il posizionamento di Sargent nella battaglia delle idee economiche invece pi


semplice. Con Lucas e Wallace, leconomista della New York University infatti
annoverabile tra i padri fondatori della cosiddetta nuova macroeconomia classica, un
indirizzo di ricerca che negli anni Settanta venne presentato come unalternativa
radicale alle teorie keynesiane e alle loro pur flebili applicazioni dellepoca. Lobiettivo
dei primi modelli dei nuovi macroeconomisti classici consisteva nel sostenere che, in
generale, le consuete politiche di espansione della domanda di merci non possono nulla
contro la disoccupazione. Sargent e i suoi colleghi ritenevano che i livelli di
occupazione fossero determinati da fattori strutturali, come le preferenze degli agenti
economici, le dotazioni iniziali di risorse e la tecnologia esistente. Per i nuovi
macroeconomisti classici tali fattori sono refrattari agli andamenti della domanda ma
possono essere influenzati da decisioni concernenti altre variabili, come ad esempio i
sussidi di disoccupazione. Unidea tipica dei loro modelli che sussidi troppo alti e un
welfare eccessivamente generoso spingono molti lavoratori a preferire lozio al lavoro.
In simili circostanze, inutile sperare che a seguito di un aumento dei salari monetari i
lavoratori inoccupati cambino idea e si propongano sul mercato. La ragione che se
laumento salariale stato provocato da una politica espansiva, allora sar certamente
accompagnato da un pari incremento dei prezzi, con effetti nulli sulleffettivo potere di
acquisto delle retribuzioni. Avendo aspettative razionali, i lavoratori inoccupati
prevedono questo esito e quindi evitano fin dallinizio di rendersi disponibili per un
impiego.
Molte critiche sono state avanzate in questi anni alla tesi delle aspettative
razionali e alle conclusioni pratiche che ne conseguono. Lidea che un operaio sia in
grado di prevedere correttamente landamento futuro dei prezzi stata vivacemente
contestata anche da autorevoli esponenti dellapproccio teorico dominante. Le
successive analisi di Sargent, tra laltro, hanno messo in evidenza che i modelli della
nuova macroeconomia classica di fatto assumono che un comune lavoratore abbia
capacit di previsione addirittura superiori a quelle del pi raffinato degli econometrici.
E tale specificazione ha inevitabilmente suscitato ulteriori ironie da parte dei critici. C
da dire per che Sargent non rimasto insensibile al dibattito ed pi volte intervenuto
sulla questione. Negli ultimi anni egli ha anche adottato un approccio alle aspettative di
tipo evolutivo, che almeno in apparenza sembra rievocare il concetto di razionalit
limitata di Herbert Simon, per lungo tempo considerato dagli ortodossi una sorta di
eresia. Non si pu dire tuttavia che da tali innovazioni Sargent abbia tratto delle
occasioni di effettivo ripensamento sul piano delle proposte politiche. In una recente
intervista egli ha infatti nuovamente sostenuto che la disoccupazione sarebbe causata in
misura significativa da un welfare esteso e da sussidi troppo generosi, e ha quindi
ammonito Obama contro lidea di aumentarli a seguito della crisi.
LAccademia svedese delle scienze ha premiato Sargent soprattutto per i suoi
influenti contributi metodologici alla verifica empirica dei modelli macroeconomici
ortodossi. Ma un apporto concettualmente forse pi interessante, e per certi versi pi
attuale, risale a un suo celebre articolo pubblicato con Wallace nel 1981. Lo scritto si
basa sulla idea che la banca centrale possa vedersi costretta a espandere la quantit di
moneta a seguito di una politica di bilancio lassista da parte del governo. In particolare,
se il governo fa crescere lindebitamento a un ritmo pi rapido rispetto alla crescita del
reddito nazionale e delle entrate fiscali, prima o poi la banca centrale dovr stampare
moneta e acquistare i titoli di stato per evitarne la bancarotta. Sotto pi di un aspetto
questa tesi sembra ammiccare alla vecchia nozione eterodossa del banchiere centrale
93

quale prestatore di ultima istanza, che oggi negli Stati Uniti e in Europa oggetto di
rinnovata attenzione, nonch di parziale applicazione. Sargent tuttavia si distingue dalla
visione eterodossa per un motivo cruciale: il suo modello non ammette che la politica
della banca centrale, atta a sostenere la spesa statale in disavanzo, possa contribuire ad
accrescere la domanda di merci, la produzione e loccupazione, e quindi anche il livello
del reddito e delle entrate fiscali. Per leconomista affermatosi nelle cittadelle ortodosse
di Minnesota e Chicago vale sempre il principio secondo cui loccupazione, la
produzione e il reddito reale dipendono in ultima istanza dai fattori strutturali delle
preferenze, della tecnica e delle dotazioni di risorse, e non possono quindi esser
modificati da iniezioni di domanda finanziate da debiti. Questa tesi, tipicamente anti-
keynesiana, alla base del motivo per cui Sargent ha recentemente dichiarato che la
banca centrale non dovrebbe mai agire da prestatore di ultima istanza. Ci significa, ad
esempio, che in linea di principio la BCE avrebbe dovuto lasciar fallire la Grecia e i
paesi periferici della zona euro, scaricando lonere della bancarotta sui loro incauti
creditori. Nella stessa intervista, tuttavia, leconomista statunitense ha ammesso che tale
regola di condotta solo ideale: nella pratica, la BCE dovr intervenire massicciamente
a sostegno dei paesi in difficolt. Questo riconoscimento tuttavia non va inteso come
una inattesa conversione al keynesismo. Sargent infatti non accenna minimamente alla
possibilit che, in mancanza di un sostegno della BCE, i paesi in difficolt possano
cadere in una spirale perversa, nella quale il tentativo di stringere la cinghia per
rimborsare i debiti deprime la domanda e i redditi e quindi, anzich migliorare la
situazione finanziaria, la deteriora ulteriormente. Per leconomista statunitense la
necessit di un intervento della BCE si spiega pi prosaicamente con il fatto che i
principali creditori dei paesi periferici sono le banche private, il cui fallimento potrebbe
avere effetti destabilizzanti sullintero sistema economico. Forse sarebbe anche il caso
di aggiungere che un eventuale salvataggio delle banche dovrebbe esser condizionato a
una loro stabile nazionalizzazione. Magari questa conclusione non entra nelle corde di
Sargent o dellAccademia svedese delle scienze, ma ha certamente pi senso delle
proposte indecenti che vengono in questi mesi avanzate per tentare di salvare capra e
cavoli: vale a dire, la solvibilit delle banche e la loro propriet privata.

12 I difetti del libero mercato del lavoro

Gli americani Lloyd Shapley, 89 anni, dellUniversit della California, e Alvin Roth,
60 anni, di Harvard, sono i vincitori del premio Nobel 2012 per lEconomia in virt dei
loro contributi alla teoria delle allocazioni stabili e alla pratica del market design.
In estrema sintesi, si tratta di ricerche dedicate a quelle particolari situazioni in cui il
tradizionale meccanismo dei prezzi non pu essere adottato per mettere in equilibrio la
domanda e lofferta del mercato, e quindi deve essere sostituito da altri criteri. Si pensi
ad esempio allallocazione degli studenti nelle universit, allassegnazione degli organi
ai pazienti in attesa di trapianto, e a tutte le circostanze in cui lequilibrio tra richieste e
offerte non pu essere affidato alle normali transazioni monetarie e alla connessa
formazione dei prezzi a causa di svariati ostacoli, di ordine tecnico oppure etico.
Pioniere in questo campo fu Shapley, che nel 1962, in collaborazione con David Gale,
elabor il cosiddetto algoritmo dei matrimoni stabili. Dato un gruppo di persone che
esprimono delle preferenze le une verso le altre, lalgoritmo descrive la procedura
94

ottimale per suggerire accoppiamenti stabili: ogni partecipante verr associato al partner
preferito, tenuto conto delle scelte di tutti gli altri. Un profano potrebbe scambiarla per
una soluzione in grado di pervenire a un ideale ratzingeriano di societ, costituito da
coppie fedeli che mai divorzieranno. Ma a guardar bene lalgoritmo di Shapley
garantisce la stabilit dei matrimoni sotto condizioni alquanto restrittive, tra cui lipotesi
di immutabilit delle preferenze. Si esclude cio che il coniuge riveda le proprie
decisioni man mano che i peggiori vizi del partner vengono alla luce, o magari cambi i
propri desideri semplicemente perch let avanza e lesperienza cresce.
Negli anni pi recenti numerosi economisti hanno proposto cambiamenti per tentare di
rimuovere ipotesi cos irrealistiche. In particolare, stata ammessa leventualit che
linformazione degli aspiranti sposi sia asimmetrica, nel senso che ciascuno dei
partecipanti pu essere interessato a rivelare i propri pregi ma non i difetti. In
circostanze simili lalgoritmo si complica, poich deve contemplare incentivi che
inducano i partecipanti a non celare le loro caratteristiche. Lagognata individuazione di
accoppiamenti stabili in tal caso rimane possibile, ma si fa decisamente pi ostica.
Nonostante le difficolt, comunque, gli studiosi non hanno smesso in questi anni di
indagare intorno allalgoritmo di Gale e Shapley. Un tale interessamento, si badi, non
deriva da una improvvisa ossessione per la sacralit del matrimonio ma da ragioni
decisamente pi prosaiche. Si infatti scoperto che procedure come quelle inventate da
Shapley si possono applicare a una grande variet di problemi economici, con risultati
oltretutto pi robusti rispetto alloriginario gioco delle coppie. Roth, in particolare, ha
mostrato che alcune varianti dellalgoritmo di Shapley aiutano a risolvere questioni
pratiche riguardanti lallocazione dei giovani medici nelle strutture sanitarie. Nel 1995
leconomista di Harvard fu chiamato dalle autorit di governo statunitensi per risolvere
un problema di instabilit delle allocazioni che derivava dallaumento delle donne
laureate in medicina. Il meccanismo vigente fino a quel momento tendeva ad assegnarle
ad ospedali distanti dal luogo di lavoro dei rispettivi coniugi, il che le induceva a
chiedere trasferimenti per evitare di dividere il nucleo familiare. Roth dovette allora
introdurre dei correttivi allalgoritmo, in modo che le assegnazioni tenessero conto delle
esigenze familiari dei medici assunti. Ulteriori varianti della procedura originaria sono
state proposte per la gestione di problemi ancor pi delicati, come la formazione delle
graduatorie per i trapianti dorgani. Le possibilit di applicazione, tuttavia, non si sono
limitate allambito sanitario. Altri studiosi hanno proposto nuovi algoritmi per
governare la destinazione degli atleti pi promettenti nelle societ sportive pi
blasonate, o lordinamento delle informazioni fornite da internet tramite i motori di
ricerca. Lintuizione originaria di Shapley, insomma, si mostrata duttile a sufficienza
per essere riadattata a qualsiasi contesto in cui lequilibrio tra domanda e offerta non
pu essere ottenuto affidandosi al tradizionale meccanismo di mercato basato sui
movimenti dei prezzi.
Naturalmente, non sono mancate voci critiche nei confronti della reale efficacia
di queste applicazioni pratiche. Unobiezione, per esempio, che la maggiore o minore
stabilit delle allocazioni potrebbe dipendere da fattori del tutto indipendenti dagli
algoritmi adottati. Roth ha cercato allora di fugare tali dubbi proponendo degli
esperimenti controllati. Per dimostrare che linstabilit delle allocazioni dei medici in
alcune citt inglesi dipendeva da una errata allocazione, egli cre in laboratorio dei
piccoli mercati artificiali che riproducevano le caratteristiche dei criteri allocativi
adottati nelle varie citt esaminate. Gli esperimenti mostrarono che i mercati che pi si
allontanavano dalla logica degli algoritmi allocativi erano effettivamente i pi instabili.
95

Leconomista di Harvard ebbe modo cos di replicare a coloro che sullEconomist


avevano espresso scetticismo sulla possibilit di considerare leconomia una scienza. A
suo avviso, infatti, gli esperimenti che aveva elaborato costituivano una prova che
leconomia pu addirittura costruire una dei sistemi isolati per verificare le proprie
ipotesi. Si tratta indubbiamente di una tesi epistemologica forte, che suscita qualche
perplessit anche tra coloro che condividono lidea delleconomia come scienza, e che
magari guardano senza pregiudizi alle nuove acquisizioni delleconomia sperimentale.
Ad ogni modo, non intorno al metodo che sono emerse le principali obiezioni al filone
di ricerca di Shapley e Roth. Le accuse pi gravi hanno riguardato le implicazioni
politiche delle loro analisi. Alcuni critici hanno obiettato che questi studi nascondono un
vizio ideologico: pur non ricorrendo agli scambi monetari e ai prezzi, tali ricerche
pretenderebbero di applicare criteri comunque ispirati da una logica di mercato ad
ambiti nei quali il mercato non potr mai funzionare, come la sanit o la scuola. In
effetti, alcuni esponenti di tali indirizzi di studio rivelano una certa vocazione per le
crociate anti-stataliste. Sarebbe per frettoloso assegnare la vituperata etichetta del
liberismo a tutti i contributi di questa linea di ricerca. Alcuni di essi potrebbero persino
aiutare ad approfondire visioni opposte, tra cui il tema risorgente della pianificazione
pubblica. Il limite principale di queste ricerche pare allora un altro. Esse sembrano
partire dal presupposto che se i consueti meccanismi basati sui prezzi possono operare,
sia certamente possibile raggiungere lequilibrio tra domanda e offerta. La stessa
Accademia delle Scienze sembra tradire questo convincimento quando, nel presentare i
lavori dei due premiati, dichiara che i tradizionali meccanismi che si affidano ai
movimenti dei prezzi per equilibrare i mercati funzionano bene in molti casi. In
realt le evidenze disponibili mostrano che tali meccanismi entrano in crisi proprio nei
casi decisivi, come ad esempio quello dellincontro tra domanda e offerta di lavoro.
Basti notare questo: la caduta dei salari reali che da tempo si registra in molti paesi
rappresenta proprio quel tipico movimento di prezzo che dovrebbe stimolare le imprese
ad assumere lavoratori e ad assorbire la disoccupazione. Invece succede lesatto
opposto: le retribuzioni cadono e i licenziamenti aumentano. A quanto pare, dunque, se
viene lasciato a s stesso il mercato del lavoro fallisce. Anche pi spesso dei matrimoni.

13 Le mille bolle del mercato finanziario

Gli americani Eugene Fama (Universit di Chicago), Lars Peter Hansen (Universit di
Chicago) e Robert Shiller (Universit di Yale) sono i vincitori del premio Nobel 2013
per lEconomia, in virt delle loro analisi sulla previsione degli andamenti dei mercati
delle attivit finanziarie e immobiliari. Nel motivare la scelta di questanno,
lAccademia svedese delle scienze ha molto insistito sugli elementi di continuit tra le
ricerche degli studiosi premiati. In realt, come vedremo, il loro successo derivato
soprattutto dagli elementi di rottura tra le loro analisi e dallampia letteratura che si
sviluppata in questi anni intorno ad essi.
Appartenente a una famiglia di origine siciliana emigrata a Boston ai primi del
secolo scorso, Eugene Fama annoverato tra i pi intransigenti difensori della libert
dei mercati finanziari e della loro completa deregolamentazione. Questa posizione
politica viene solitamente giustificata dai suoi epigoni in base alla tesi secondo cui il
mercato utilizza al meglio tutte le informazioni disponibili utili alla determinazione del
prezzo delle attivit, e ogni eventuale nuova informazione viene istantaneamente
96

incorporata nei prezzi delle attivit. Nel caso della borsa valori, per esempio, il prezzo
corrente delle azioni riflette le informazioni disponibili circa il valore attuale dei
dividendi futuri attesi. Se dunque i prezzi che scaturiscono dalle contrattazioni sono
determinati in base a un impiego ottimale di tutte le informazioni disponibili, nessuno
potr sperare di utilizzare quelle stesse informazioni per speculare, cio per battere il
mercato.
Da questa tesi i seguaci di Fama hanno tratto la conclusione secondo cui il
mercato azionario il miglior giudice di s stesso: ogni intervento di regolazione della
borsa, come di tutti gli altri mercati, finirebbe per turbare un processo di determinazione
dei prezzi che utilizza nel modo migliore le informazioni disponibili, e che dunque pu
esser considerato il pi efficiente criterio di allocazione delle risorse disponibili. Bench
apertamente tratta dalle analisi di Fama, in realt questa volgarizzazione non riflette il
loro grado di sofisticatezza. Basti notare, ad esempio, che sebbene abbia fornito
importanti contributi a sostegno dellidea che il mercato determina i prezzi utilizzando
tutte le informazioni disponibili, leconomista di Chicago ha anche fatto notare che i
prezzi dipendono pure dalla teoria in base alla quale le informazioni vengono elaborate.
Dopo la crisi esplosa nel 2007 Fama ha riconosciuto che c oggi grande incertezza
intorno alla scelta della giusta teoria, vale a dire della corretta interpretazione del
funzionamento del sistema economico. Tale incertezza, tuttavia, non sembra costituire a
suo avviso un motivo per zittire i volgarizzatori del suo pensiero: anzi, in un contesto in
cui non vi consenso circa la scelta del giusto modello interpretativo del mondo che ci
circonda, egli sembra far valere ancor di pi la tesi secondo cui il libero mercato resta il
criterio allocativo migliore, e quindi non dovrebbe mai essere imbrigliato dai tentativi di
regolazione politica.
Le tesi di Fama hanno goduto di un enorme successo allinterno della comunit
accademica internazionale. Eppure, gi prima dello scoppio della crisi, le evidenze
empiriche tendevano a smentire piuttosto seccamente l'idea della efficienza dei mercati
finanziari. Il caso della borsa valori in questo senso emblematico. Se i prezzi correnti
delle azioni riflettessero semplicemente le informazioni disponibili sui dividendi futuri
attesi allora la variabilit dei prezzi dovrebbe risultare inferiore a quella dei dividendi;
spiegato in termini intuitivi, questi ultimi dovrebbero variare maggiormente poich si
determinano in una fase successiva e quindi incorporano informazioni che al momento
della fissazione dei prezzi non erano disponibili. In un celebre articolo pubblicato nel
1981, tuttavia, Shiller elabor un test econometrico dal quale scatur un risultato
esattamente opposto: la variabilit dei prezzi di mercato dei titoli azionari eccede di
gran lunga quella dei dividendi, fino a cinque volte di pi e in alcuni casi persino oltre.
Evidentemente, dunque, i prezzi non possono esser considerati un mero riflesso dei
dividendi futuri. Altre forze incidono su di essi, e la sfida scientifica consiste
nellindividuarle.
I difensori della tesi dei mercati efficienti hanno cercato di spiegare i risultati di
Shiller in base allidea che i prezzi correnti delle azioni non dipendono solo dai
dividendi futuri ma anche dalle preferenze degli agenti economici tra consumo presente
e consumo futuro, che nella loro ottica determinano il volume del risparmio e quindi
anche la domanda di azioni. Tali preferenze tenderebbero a modificarsi durante le varie
fasi del ciclo economico: per esempio, nel corso di una recessione il consumo presente
si riduce, la preferenza verso di esso dunque aumenta, il che modifica la domanda di
azioni e quindi anche i loro prezzi di mercato, del tutto indipendentemente dalle
variazioni dei dividendi futuri. Questa spiegazione, tuttavia, stata confutata da test
97

econometrici successivi tra cui spiccano quelli elaborati dal terzo vincitore, Lars
Hansen. I test, tra laltro, sembrano indicare che il ciclo economico incide in misura
troppo limitata sulle scelte di acquisto dei titoli, e quindi non pu costituire una valida
giustificazione per leccessiva variabilit dei prezzi rispetto ai dividendi.
I risultati di Shiller hanno trovato riscontri ulteriori anche nelle analisi di altri
mercati, come ad esempio quelli delle obbligazioni e delle valute. Cos come in borsa i
prezzi delle azioni oscillano molto pi dei dividendi futuri, cos anche negli altri mercati
i prezzi tendono ad allontanarsi dai valori che dovrebbero scaturire dalle informazioni
fondamentali sul futuro. Se ne tratta cos la conclusione generale secondo cui lalta
variabilit dei prezzi dovuta al fatto che i mercati finanziari sono dominati da fattori
psicologici imponderabili, in grado di generare ondate di euforia o di panico: le
cosiddette bolle speculative, che gonfiandosi e poi scoppiando contribuiscono alla
instabilit complessiva del sistema economico, generando cicli di boom e di depressione
della produzione e delloccupazione. Questa chiave di lettura, di cui lo stesso Shiller
stato un fautore, ha aperto la via alla cosiddetta finanza comportamentale, una branca
della ricerca economica che prova a spiegare la dinamica dei mercati finanziari in base
allidea che il comportamento degli agenti economici non sempre possa esser definito
razionale. Si tratta di una linea di indagine che pu vantare illustri predecessori, tra cui
Charles Kindleberger e John Kenneth Galbraith. Nella versione corrente, tuttavia, essa
sembra dare adito allidea che, se gli agenti fossero perfettamente razionali, i prezzi
rifletterebbero le informazioni fondamentali e quindi una soluzione di libero mercato
potrebbe risultare efficiente. Una conclusione, questa, che per molti versi appare
insoddisfacente, e che presta il fianco alla critica di quegli indirizzi alternativi di ricerca
secondo i quali la bolla speculativa non costituisce tanto unanomalia determinata
dallirrazionalit dei singoli individui, ma rappresenta piuttosto una necessit vitale
dellattuale regime di accumulazione capitalistica, fondato sulla centralit del mercato
finanziario.
Di fronte allavanzata dei suoi numerosi critici Fama non sembra essersi
scomposto pi di tanto. Recentemente, anzi, egli sembra avere ulteriormente
estremizzato la sua posizione, affermando che in fin dei conti le bolle non esistono e
che il mercato finanziario sarebbe stato addirittura la vittima della recessione, non la
causa. Un simile atteggiamento, a prima vista, potrebbe esser scambiato per lultimo
arrocco di un sovrano della cittadella accademica, ormai prossimo alla defenestrazione.
La verit, tuttavia, che sebbene abbia perduto gran parte del suo appeal scientifico, la
retorica liberista di Fama potrebbe rivelarsi pi in sintonia con lattuale tempo politico
di quanto si possa immaginare. Dopotutto, il regime di accumulazione trainato dal
mercato finanziario entrato in crisi pi e pi volte, in questi anni, sotto i colpi dei
danni che esso stesso provocava. Ma nessun movimento politico ha finora osato anche
solo accennare a una sua messa in discussione. Potremmo dire, insomma, che sebbene
la sua inefficienza risulti per molti versi conclamata, il mercato finanziario e i suoi
apologeti stanno opponendo una efficace resistenza politica alle pressioni della critica. Il
futuro rischia pertanto di essere ancora una volta di Fama e dei suoi epigoni, piuttosto
che di Shiller. E la repressione della finanza, che Keynes negli anni Trenta invocava e
che almeno in parte riusc a conseguire, resta per il momento solo una chimera.

Brancaccio, E. (2005). Stock market and bubbles, Quaderno DASES Universit del Sannio, 7.
Brancaccio, E. e Passarella, M. (2012). Lausterit di destra. E sta distruggendo lEuropa, Milano, Il
Saggiatore.
98

Cassidy, J. (2010), Interview with Eugene Fama, New Yorker, January.


Fama, E. (1970). Efficient capital markets: a review of theory and empirical work, Journal of Finance,
25, pp. 383-417.
Shiller, R.J. (1981). Do stock prices move too much to be justified by subsequent movements in
dividends?, American Economic Review, 71, pp. 421-436.
Shiller, R.J. (2009). Euforia irrazionale. Alti e bassi di borsa, Il Mulino, Bologna.

14 Disuguaglianza, carburante necessario dello sviluppo

L'Accademia reale svedese delle scienze ha assegnato il premio Nobel 2015 per
lEconomia allo scozzese Angus Deaton, docente negli Stati Uniti presso lUniversit di
Princeton, per i suoi studi dedicati allanalisi dei consumi, della povert e del benessere.
Nato a Edinburgo nel 1945, Deaton ha dedicato buona parte della sua attivit di
ricerca allarduo compito di sciogliere uno dei nodi chiave dellindividualismo
metodologico, sul quale la teoria neoclassica dominante tuttora si basa: indagare
sullandamento di grandi variabili aggregate, come la composizione della domanda di
beni o landamento nel tempo del consumo nazionale, partendo sempre da unanalisi del
comportamento dei singoli individui. Per questo scopo, assieme a Muellbauer, Deaton
elabor nel 1980 il cosiddetto sistema di domanda quasi ideale. Per la sua duttilit
questo criterio risolveva vari problemi di aggregazione degli approcci precedenti e
costituisce tuttora un punto di riferimento per la ricerca economica sulle decisioni di
consumo. Una questione rilevante, appena accennata dallAccademia svedese delle
scienze, resta tuttavia irrisolta. Tutto questo filone di studi poggia infatti sullipotesi di
razionalit individuale tipica della teoria prevalente. Si suppone, ad esempio, che i
consumatori non siano affetti da illusione monetaria, per cui un aumento di tutti i prezzi
accompagnato da un pari aumento del reddito destinato ai consumi non dovrebbe
modificare le loro decisioni di spesa. Deaton ha giustamente insistito sullopportunit di
concepire sistemi di analisi della domanda che consentano di verificare se lassunzione
di razionalit dei singoli individui trovi conferma nei dati. Il problema che le verifiche
empiriche effettuate da lui e da molti altri, al riguardo, tendono a smentire tale ipotesi.
Un risultato che non crea alcuna difficolt ai filoni di ricerca alternativi che rifiutano a
monte lindividualismo metodologico e lipotesi di comportamento razionale dei
singoli, ma che determina invece notevoli complicazioni per la teoria neoclassica
prevalente.
Negli anni pi recenti Deaton ha concentrato i suoi studi nel campo dellanalisi
della povert e del benessere nei paesi meno sviluppati. In collaborazione con la Banca
Mondiale, egli ha realizzato varie indagini dedicate alla raccolta e alla elaborazione di
dati sui comportamenti di consumo delle famiglie. Tali ricerche, tra laltro, hanno
contribuito a definire criteri consolidati di calcolo degli standard di vita a livello
mondiale. La difficolt principale di questi studi riguarda lannoso problema della
carenza di dati disponibili, specialmente nei paesi pi poveri. Per superare questo
ostacolo Deaton ha dovuto ideare diverse strategie. Una prova della sua inventiva
rappresentata dal modo in cui cerc di verificare se fosse vero che nei paesi pi poveri
le famiglie tendono sistematicamente a discriminare le figlie femmine rispetto ai figli
maschi. In assenza di dati diretti sulla ripartizione delle risorse tra i generi allinterno di
ciascun nucleo familiare, egli sugger il seguente criterio empirico: se alla nascita di un
figlio maschio il consumo totale degli adulti della famiglia tende a contrarsi di pi
99

rispetto al caso in cui nasce una figlia femmina, ci pu indicare che al maschio
vengono assegnate maggiori risorse. Adottando questa metodologia, stato rilevato che
tale discriminazione, pur non essendo sistematica, trova conferme nelle fasi in cui le
famiglie sono colpite da eventi avversi.
Nelle dispute sulla politica economica Deaton intervenuto in varie occasioni,
soprattutto attraverso le sue Letters from America pubblicate periodicamente dalla
Royal Economic Society britannica. Allo scoppio della crisi del 2008 egli appoggi la
politica di rilancio della domanda di merci avviata da Obama e critic gli economisti
vicini al partito repubblicano che la avversavano. La sua visione politica generale,
tuttavia, emersa pi chiaramente nel 2013 a seguito della pubblicazione del libro The
great escape, in cui lautore celebra la grande fuga dalla povert che ha caratterizzato
gran parte delleconomia mondiale negli ultimi due secoli e mezzo. In varie parti del
volume Deaton sembra abbandonare laplomb dellaccademico di rango per rispolverare
una vecchia, confutatissima apologia del capitalismo concorrenziale, secondo cui la
disuguaglianza costituirebbe un carburante necessario dello sviluppo economico: Se un
governo assicurasse a ciascuno lo stesso reddito, la gente lavorerebbe molto meno e di
conseguenza persino i pi poveri starebbero peggio che in un mondo che ammette le
diseguaglianze. Da qui alla tipica esortazione dei repubblicani americani, di lasciare in
pace i ricchi e di accontentarsi delle briciole che cadranno (si spera) dalla loro tavola, in
effetti poco ci passa.

14 Nobel 2016: dalla teoria dei contratti alla realt della crisi

Oliver Hart, nato nel 1948 a Londra e docente ad Harvard, e Bengt Holmstrm, nato nel
1949 ad Helsinki e docente al MIT di Boston, sono i vincitori del premio Nobel 2016
per leconomia. I due studiosi sono stati premiati dallAccademia svedese delle scienze
per i loro contributi alla teoria dei contratti, quel campo della ricerca economica che
studia le determinanti delle diverse forme contrattuali e i modi in cui la stipula di un
contratto possa condurre a risultati pi o meno ottimali, per le parti e per la collettivit
nel suo complesso [1].
Un tipico problema analizzato dalla teoria dei contratti quello che si pone
quando il mandante di un determinato incarico non sia in grado di verificare con
precisione se e in che misura il mandatario si impegni ad assolverlo. Ossia la
prestazione dellagente, come si dice in gergo, non direttamente osservabile da chi lo
abbia assunto. Questa circostanza si definisce asimmetria informativa ed frequente
in moltissimi rapporti contrattuali, come ad esempio quelli tra azionisti e manager di
unimpresa. Considerato che lattivit del manager difficilmente osservabile, in che
modo gli azionisti possono indurlo a impegnarsi per massimizzare i loro profitti? Una
soluzione contrattuale potrebbe consistere nel collegare la remunerazione del manager
allandamento dei prezzi delle azioni dellimpresa: se i prezzi salgono la paga sale, e
viceversa. A Wall Street questo sistema utilizzato spesso, ma presenta un serio
inconveniente: dato che i prezzi azionari sono ampiamente influenzati da fattori
indipendenti dal comportamento del manager, la sua paga finir per dipendere dalla sua
fortuna molto pi che dalla sua abilit. Nel 1979 Holmstrom sugger un possibile
rimedio: per ridurre linfluenza del caso il manager potrebbe esser pagato sulla base del
rapporto tra i prezzi azionari dellimpresa che egli guida e i prezzi di imprese simili che
100

non siano sotto il suo controllo [2]. In seguito, assieme ad altri colleghi, leconomista
finlandese ha proposto varianti sempre pi complesse di questa soluzione. La realt,
tuttavia, sembra situarsi sempre un passo avanti rispetto alle architetture contrattuali
suggerite dalla teoria. Basti pensare a una circostanza di cui molto si discusso dopo la
crisi finanziaria del 2008: quella in cui gli stessi manager intervengono sul mercato allo
scopo di gonfiare il valore delle azioni dimpresa cos da accrescere la loro paga. In casi
del genere il criterio di Holmstrom non aiuta: anzi, il rapporto tra il prezzo dellimpresa
e i prezzi di imprese simili costituisce una misura non tanto dellimpegno del manager
quanto piuttosto del suo azzardo.
Il problema dellosservazione della performance della controparte non tuttavia
lunico affrontato dalla teoria dei contratti. Una questione ancor pi rilevante quella
che riguarda i cosiddetti contratti incompleti, vale a dire quelle situazioni in cui le
parti non sono in grado di definire in dettaglio tutti i termini contrattuali. Oliver Hart, in
collaborazione con Grossman e Moore, ha sostenuto che un contratto, sebbene
incompleto, dovrebbe chiarire almeno chi abbia il diritto di decidere nel caso in cui
emerga una controversia tra le parti. Lassegnazione di tale diritto cruciale, poich
essa stabilir quale delle parti abbia incentivo a impegnarsi e ad investire nellattivit e
quale invece sia disincentivata [3]. Un contributo di ricerca, in questo senso, consistito
nel definire un criterio efficiente di assegnazione dei diritti di propriet del capitale
lungo una determinata filiera produttiva. Si pensi ad esempio a unattivit innovativa
che richieda luso di macchine e che debba poi avvalersi di un canale distributivo. Nelle
mani di chi dovr concentrarsi la propriet di queste tre attivit? La risposta che
lintera propriet andrebbe assegnata allinnovatore, ossia al soggetto che svolge il
compito pi difficile da inquadrare dettagliatamente allinterno di un contratto. E a lui
che occorre assegnare il reddito netto della filiera, perch solo in tal modo si pu sperare
che lattivit innovativa, pur in assenza di vincoli contrattuali, sia realizzata nel modo
pi efficiente. Seguendo questo ragionamento, dunque, in generale la propriet
dovrebbe essere assegnata a chi dispone di competenze difficilmente negoziabili. Da
questa linea di pensiero scaturito il cosiddetto nuovo approccio ai diritti di propriet,
un filone di ricerca che ha goduto di notevole seguito. Non tutti per hanno condiviso in
pieno questa impostazione. E stato osservato, ad esempio, che soprattutto nel campo
della propriet intellettuale possono attivarsi dei processi cumulativi poco piacevoli: che
si tratti di singole imprese o di interi paesi, i soggetti maggiormente dotati di diritti di
propriet intellettuale tenderanno a sviluppare ulteriori abilit nella produzione di diritti
di propriet intellettuale, mentre chi non dispone di tali diritti sar anche disincentivato
a produrne, con conseguenti divergenze tra ricchi e poveri persino pi gravi rispetto a
quelle causate dai divari nelle dotazioni di capitale fisico. In altre parole, lassegnazione
del diritto influisce sulla maggiore o minore crescita della capacit di innovare,
rendendo il problema dellallocazione ottimale della propriet ancor pi complesso di
quanto la teoria prevalente induca a ritenere [4].
Lassegnazione dei diritti di propriet, per Hart, pu rappresentare anche un
criterio razionale per tracciare il confine economico tra pubblico e privato. Lintervento
statale, a suo avviso, non in grado di garantire una gestione efficiente proprio perch
esso esclude una precisa assegnazione delle propriet e dei connessi diritti di decisione.
Per questo motivo, pu esser conveniente estendere lazione del privato ad ambiti
tradizionalmente di competenza dello stato, come la gestione degli ospedali, delle
scuole e persino delle prigioni [5]. Per fortuna, anche per Hart lestensione della mano
privata ha un limite. Quando loperatore privato sia incentivato a investire soprattutto
101

nellabbattimento dei costi anzich nellincremento della qualit, opportuno che lo


Stato faccia un passo avanti e lo sostituisca. Un esempio increscioso, citato
dallAccademia svedese delle scienze, offerto dalle carceri che negli Stati Uniti sono
oggi possedute e gestite da privati. A causa tra laltro di una sistematica tendenza a
tagliare i costi, esse versano in un degrado tale che dovrebbe costituire un motivo di
ripensamento anche per il pi accanito dei liberisti.
La strenua ricerca di meccanismi negoziali in grado di risolvere le asimmetrie di
informazione o lincompletezza dei contratti potrebbe essere interpretata, in fin dei
conti, come un continuo esercizio intellettuale teso a preservare la libert dei privati di
negoziare e ad evitare il ricorso allintervento statale. In effetti non mancano casi in cui,
in termini pi o meno espliciti, i vincitori del Nobel 2016 per leconomia hanno rivelato
simili orientamenti ideologici. Anche per loro, tuttavia, la grande crisi del 2008 ha
rappresentato una sorta di spartiacque, che sembra avere fortemente ridimensionato la
loro fiducia nellefficienza relativa dei meccanismi negoziali tra privati. In una recente
relazione per la Banca dei regolamenti internazionali, Holmstrom giunto a diffidare di
quelle soluzioni anti-crisi che si basino su mere invocazioni alla trasparenza del mercato
[6]. Lidea che i privati debbano conoscere con precisione le posizioni finanziarie delle
controparti che abbiano emesso titoli, in alcuni casi potrebbe dar luogo a un
aggravamento della crisi anzich a un recupero della fiducia. Nella medesima ottica
Holmstrom ha invece elogiato la celebre frase di Mario Draghi: faremo tutto ci che
necessario per preservare leuro e, credetemi, sar sufficiente, proprio per la sua
estrema opacit. Per leconomista finlandese, lindefinitezza di quella dichiarazione ha
impedito che gli operatori privati facessero troppi calcoli sulla sostenibilit
dellimpegno del banchiere centrale a difendere leuro, e ha consentito di creare intorno
alla moneta unica una convergenza di vedute fondata su una simmetrica ignoranza tra
tutte le parti. Nel difendere una chiave di lettura cos spregiudicata Holmstrom non ha
esitato a citare Machiavelli. In effetti, a ben guardare, questa sua una concezione della
politica monetaria molto poco convenzionale, e molto prossima alle visioni eterodosse
del banchiere centrale come market maker, una sorta di moderno principe del
mercato.
Naturalmente, nessuno ritiene che la sola opacit del banchiere centrale consenta
di salvaguardarci da nuove crisi. Entrambi i premi Nobel sostengono, al contrario, che
per affrontare le future turbolenze c bisogno di interventi ben pi ampi, e per certi
versi eretici. E interessante citare, a questo riguardo, un recente contributo di Hart e
Zingales in tema di crisi bancarie [7]. La tesi dei due autori che presso le banche
tendono a concentrarsi le attivit finanziarie di quei soggetti che hanno maggiori
esigenze di liquidit. Per questo motivo una crisi bancaria diversa da ogni altra crisi,
poich sottrae liquidit proprio ai soggetti che ne hanno pi bisogno, e quindi
inevitabilmente determina una propagazione dei suoi effetti e un connesso crollo della
domanda aggregata. Un intervento statale deve pertanto ritenersi inesorabile e urgente,
per ricapitalizzare le banche in difficolt, per salvaguardare i depositanti da eventuali
perdite e per rilanciare la domanda. Questa soluzione viene oggi con un certo imbarazzo
sostenuta persino da coloro che qualche anno fa, in nome del libero mercato, plaudirono
improvvidamente al fallimento di Lehman Brothers. Si tratta per di una soluzione
scomoda, che denuda la finanza privata rivelando il suo estremo bisogno, nei momenti
di crisi, di ricorrere ai salvataggi statali. Ogni volta che si compie un passo lungo questa
via politica, diventa sempre pi difficile placare le voci di popolo contro landazzo
della privatizzazione dei profitti e della socializzazione delle perdite.
102

[1] Committee for the Prize in Economic Sciences in Memory of Alfred Nobel (2016).
Oliver Hart and Bengt Holmstrom: Contract Theory. Cfr. anche: Royal Swedish
Academy of Sciences (2016). The Prize in Economic Sciences: popular science
background.
[2] Holmstrom B. (1979). Moral Hazard and Observability, Bell Journal of Economics,
10.
[3] Grossman, S., O. Hart (1983a): An Analysis of the Principal-Agent Problem,
Econometrica, 51. Hart, O., J. Moore (1990): Property Rights and the Nature of the
Firm, Journal of Political Economy, 98.
[4] Pagano U., M.A. Rossi (2004). Incomplete Contracts, Intellectual Property and
Institutional Complementarities, European Journal of Law and Economics, 18.
[5] Hart, O., A. Shleifer, and R. Vishny (1997): The Proper Scope of Government:
Theory and an Application to Prisons, Quarterly Journal of Economics, 112.
[6] Holmstrom, B. (2015). Understanding the role of debt in the financial system, BIS
Working Papers, 479.
[7] Hart, O., L. Zingales (2014). Banks are where the liquidity is, NBER Working paper
n. 20207.

Você também pode gostar