Escolar Documentos
Profissional Documentos
Cultura Documentos
Emiliano Brancaccio
APPUNTI DI
POLITICA ECONOMICA
PRIMA VERSIONE
Anno 2017
2
Indice
3. POLITICHE STRUTTURALI
Tali Appunti vanno studiati assieme al testo Anti-Blanchard (terza edizione, Franco
Angeli, Milano 2017).
Queste diverse visioni danno luogo a unampia serie di dibattiti e di controversie sul
ruolo da attribuire alla politica economica. Lesistenza di dispute teoriche, del resto, non
una prerogativa esclusiva delle scienze economiche. In tutti i campi del sapere, dalla
fisica alla biologia, specialmente in alcune fasi evolutive della ricerca si assiste ad
accesi confronti fra i ricercatori in merito alla scelta della teoria maggiormente in grado
di descrivere la realt oggetto di studio. In questi ambiti della scienza lorientamento
della ricerca viene solitamente guidato dalla capacit o meno delle diverse teorie di
superare il banco di prova della verifica empirica, ossia della loro rispondenza o
meno di ciascuna teoria ai dati esistenti. Lo stesso dovrebbe valere per gli studi
economici: se una teoria stabilisce che la spesa pubblica non ha alcun effetto
sullandamento della produzione e delloccupazione, mentre unaltra teoria ritiene che
leffetto esista e sia rilevante, toccher in primo luogo alle verifiche empiriche stabilire
quale delle due impostazioni debba ritenersi pi robusta alla prova dei dati. Ovviamente,
quello del rapporto fra teoria e dati un argomento delicato, complesso e controverso,
che alla base dellepistemologia, una disciplina che si occupa di metodo scientifico.
Tale complessit investe tutte le scienze, non solo leconomia. In genere si afferma che
nel campo delleconomia politica, e ancor pi della politica economica, il rapporto fra la
teoria e la prova dei dati reso ancor pi controverso per due motivi, uno tecnico e
laltro ideologico: in primo luogo, la maggior parte dei fenomeni non replicabile in
laboratorio; in secondo luogo, i temi affrontati investono enormi interessi economici e
sociali che possono condizionare lavanzamento della ricerca. Ma a ben guardare questi
due problemi toccano in misura pi o meno significativa quasi tutti i campi della ricerca
scientifica. Lesistenza di tali difficolt rende lattivit di ricerca epistemologicamente
pi difficile, ma non dovrebbe mai pregiudicarla. Un aggiornato metodo scientifico
dovrebbe dunque restare il banco di prova delle teorie in tutti i campi del sapere, inclusa
la politica economica.
Tra i numerosi esempi di disputa tra gli economisti, vi quello relativo alla validit
della teoria quantitativa della moneta e delle sue varianti moderne. Come noto, la
teoria quantitativa venne ideata da Irving Fisher nel 1911 e le conclusioni sono oggi
sostanzialmente riproposte nelle versioni standard del modello mainstream di domanda
e offerta aggregata. Questa teoria prevede che, nel lungo periodo, ogni eventuale
variazione della quantit di moneta emessa dalla banca centrale implichi solo una
variazione proporzionale del livello generale dei prezzi, e non abbia invece ripercussioni
durature sulla produzione e sulloccupazione. Pi in generale, la teoria mira a stabilire
5
Definendo con M la quantit di moneta emessa dalla banca centrale, con V la velocit di
circolazione di ciascuna unit di moneta emessa, con P il livello generale dei prezzi e
con Y il livello del PIL, la teoria quantitativa corrisponde alla seguente relazione:
PY = MV
Questa pu esser considerata una identit contabile piuttosto ovvia, nel senso che a date
condizioni si pu ritenere che il valore delle merci prodotte e scambiate in un anno
corrisponda necessariamente al valore della contropartita in moneta scambiata nello
stesso anno per effettuare gli acquisti di quelle merci. La mera relazione contabile
diventa per una teoria economica se si fanno le seguenti ipotesi sullandamento delle
variabili in gioco. Supponendo che V sia un parametro determinato dalle abitudini di
pagamento della popolazione e che la produzione Y sia in equilibrio naturale,
possiamo affermare che per ogni dato livello di M deciso dalla banca centrale esister
un solo livello di P di equilibrio. Ogni variazione di M dovrebbe quindi influire solo
su P:
P = MV/Y
La stessa relazione pu essere poi espressa non in termini di livelli ma in termini di tassi
di variazione. Consideriamo le variabili in questione in due anni consecutivi, indicati
rispettivamente con i pedici zero e uno. Possiamo riscrivere lequazione della teoria
quantitativa in questi termini:
1 1 1 1
1 1 0 0
= 1 da cui =
0 0 0 0 1
0 0
Ora, se prendiamo una qualsiasi variabile generica X e definiamo con x = (X1 X0)/X0
il suo tasso di variazione percentuale nel tempo, facile dimostrare che (X1/X0) = 1 + x.
Applicando questo risultato a P, M, V, Y, tramite semplici passaggi lequazione della
teoria quantitativa pu essere riformulata nei seguenti termini:
(1 + )(1 + )
1+ =
(1 + )
Dove p il tasso dinflazione, y il tasso di crescita del PIL, m la crescita della massa
monetaria e v indica le eventuali variazioni nella velocit di circolazione della moneta.
Da ci, moltiplicando e riarrangiando otteniamo:
6
= (1 + + + 1 )/(1 + )
(1) +
Se per ipotesi si assume che Y sia costante al suo equilibrio naturale e che pure V sia
costante, allora y = 0 e v = 0, per cui p m. In altre parole, ogni variazione della
quantit di moneta determina solo una variazione proporzionale dellinflazione. Pi in
generale, per ogni dato tasso di variazione v della velocit di circolazione della moneta,
e per ogni dato tasso di crescita y della produzione naturale, si pu affermare che se la
banca centrale controlla la variazione m della crescita monetaria allora dovrebbe
controllare anche il tasso dinflazione p.
Nei primi anni della sua esistenza la Banca Centrale Europea (BCE) ha sostenuto di
voler controllare linflazione basandosi proprio sulla teoria quantitativa della
moneta. Come noto, il Trattato dellUnione europea attribuisce alla BCE il compito di
tenere il tasso dinflazione stabile ed entro il limite massimo del 2% annuo. In questo
senso, ritenendo che il tasso di crescita naturale del PIL delleurozona fosse del 2,5%
(y = 0,025) e stimando che a causa di varie innovazioni finanziarie la velocit di
circolazione della moneta diminuisse di circa lo 0,5% allanno (v = 0,005), la BCE ha
stabilito come obiettivo dinflazione un tasso dinflazione annuo dell1,5% (p = 0,015),
e dallequazione (1) ha determinato un tasso di crescita della moneta del 4,5%
necessario per perseguire quellobiettivo:
In realt, come si evince dal grafico di Fig. 1 riferito ai primi quindici anni di vita
dellEurozona, il legame tra la crescita monetaria e linflazione non cos forte n
cos stabile come la teoria quantitativa indurrebbe a credere. Prendendo come
riferimento laggregato monetario M3 costituito da monete metalliche, banconote,
depositi a vista e titoli liquidi di scadenza inferiore a un anno, si pu notare che gli
andamenti della crescita monetaria m e dellinflazione p risultano piuttosto diversi: tra il
1999 e il 2007 si registrano significativi mutamenti di m ai quali per non
corrispondono analoghe variazioni di p, mentre tra il 2010 e il 2011 si registrano
addirittura andamenti divergenti tra le due grandezze.
Per egli esponenti della visione alternativa di politica economica queste evidenze stanno
a indicare che la teoria quantitativa errata, e che pi in generale le azioni della
banca centrale sulla quantit di moneta, cos come sui tassi dinteresse, non sono in
grado di controllare linflazione. Anche tra gli esponenti del mainstream sorgono oggi
vari dubbi circa lidea che landamento dei prezzi possa esser governato dalla sola
politica monetaria. Nellambito dellapproccio dominante, tuttavia, sono tuttora molti i
seguaci della teoria quantitativa o di sue varianti pi recenti, le quali insistono sullidea
che la banca centrale possa tenere sotto controllo il tasso dinflazione.
Le politiche monetarie non convenzionali non stanno dando i risultati sperati. Il quantitative easing, cos
come le manovre tese a portare i tassi dinteresse nominali verso lo zero o addirittura a livelli negativi, non
appaiono in grado di sospingere linflazione e la crescita del PIL verso il loro sentiero normale, n
sembrano capaci di allontanare le principali economie avanzate dal precipizio della deflazione. LUnione
monetaria europea in questo senso un caso esemplare. La BCE ha abbattuto il costo del denaro e ha
accresciuto la liquidit in circolazione in una misura impensabile prima dellinizio della crisi. Ci nonostante,
linflazione delleurozona addirittura tornata in territorio negativo e non vi certezza sulla possibilit che
arrivi almeno ad azzerarsi alla fine dellanno.
8
In questo scenario, da pi parti hanno iniziato a diffondersi dubbi sul modo convenzionale in cui viene
interpretato il ruolo dei banchieri centrali. Alcuni commentatori sostengono che dopo la grande recessione
iniziata nel 2008 le autorit monetarie dovrebbero ampliare ulteriormente gli strumenti dintervento e
soprattutto dovrebbero smetterla di perseguire di obiettivi rigidi dinflazione per puntare invece verso target
pi flessibili, come ad esempio una data crescita del reddito nominale.
Fuori e dentro le istituzioni, i segnali di interesse verso tali proposte non mancano. A ben guardare, tuttavia,
questo modo di affrontare il problema della inefficacia delle politiche monetarie presenta un grave limite. Sia
che si adottino i vecchi obiettivi dinflazione sia che si scelgano target pi flessibili, le ricette suggerite
continuano a basarsi sul vecchio assunto monetarista secondo cui le banche centrali sarebbero in grado, in un
modo o nellaltro, di controllare la spesa aggregata. Non viene neanche presa in considerazione la possibilit
che gli strumenti delle banche centrali, pi o meno convenzionali, non siano in grado di controllare la spesa
aggregata e quindi, in generale, non consentano di perseguire nessuno degli obiettivi che si prefiggono, che si
tratti di inflazione o anche di reddito nominale.
Un articolo di prossima pubblicazione sul Journal of Post-Keynesian Economics fornisce nuovi elementi a
sostegno della tesi secondo cui le banche centrali, in generale, non sono in grado di governare la spesa
aggregata (Brancaccio, Fontana, Lopreite, Realfonzo 2015). Utilizzando un modello VAR con dati trimestrali
per larea euro tra il 1999 e il 2013, gli autori hanno indagato sullesistenza o meno di relazioni statistiche tra
landamento del tasso dinteresse di mercato o dei tassi di rifinanziamento della BCE da un lato, e la dinamica
del reddito nominale intorno al suo trend di lungo periodo dallaltro.
Lanalisi empirica ha mostrato che gli scostamenti del reddito nominale dal trend non sono
influenzati dai movimenti dei tassi di interesse: in particolare, la riduzione del costo del denaro non sembra in
alcun modo favorire un recupero del reddito nominale verso il suo andamento tendenziale di lungo periodo.
A quanto pare, dunque, governando i tassi dinteresse il banchiere centrale non in grado di controllare la
spesa aggregata e quindi non pu incidere efficacemente sullandamento della produzione, delloccupazione,
del reddito nominale, e tantomeno dellinflazione. Levidenza, in effetti, contrasta con tutte le interpretazioni
convenzionali delloperato delle banche centrali, dalla famigerata regola di Taylor alle pi recenti regole
fondate su un target di reddito nominale.
Lanalisi empirica ha evidenziato pure che gli scostamenti del reddito nominale effettivo dal suo
trend di lungo periodo influenzano landamento del tasso dinteresse: per esempio, a una crescita del reddito
pi blanda rispetto al trend corrisponde una riduzione dei tassi dinteresse, e viceversa. Questo risultato
sembra supportare uninterpretazione del ruolo della banca centrale le cui origini risalgono al celebre Lombard
Street di Walter Bagehot, e che stata poi ripresa e sviluppata da vari studiosi di orientamento critico. Questo
filone di ricerca alternativo suggerisce che il ruolo effettivo del banchiere centrale pi complesso di quello
che gli viene solitamente attribuito: esso consiste nel regolare la solvibilit delle unit economiche e pi in
generale la stabilit finanziaria del sistema. Lautorit monetaria, cio, muoverebbe i tassi dinteresse nella
stessa direzione del reddito nominale non certo per tentare di governare questultimo, che fuori dalla sua
portata, ma allo scopo non meno rilevante di controllare la differenza tra reddito e onere del debito, in modo
da tenere a bada la dinamica dei fallimenti, delle bancarotte e delle liquidazioni del capitale.
Secondo questa visione, il banchiere centrale agisce come regolatore di un conflitto tra capitali
solvibili, capaci di accumulare profitti superiori al servizio del debito, e capitali in perdita e dunque
potenzialmente insolventi. Tale conflitto inoltre tanto pi violento quanto pi restrittiva sia la politica fiscale
del governo, che riduce i redditi nominali medi e colloca quindi un numero maggiore di unit economiche
sotto la linea dellinsolvenza. Dati gli orientamenti delle politiche di bilancio, dunque, il modo in cui la banca
centrale manovra il tasso dinteresse rispetto al reddito nominale medio influisce sul ritmo delle insolvenze e
sulla connessa centralizzazione dei capitali: vale a dire, sulle liquidazioni dei capitali pi deboli e sul loro
progressivo assorbimento ad opera dei capitali pi forti (Brancaccio e Fontana 2015).
Questa diversa interpretazione della politica monetaria consente di guardare sotto unaltra luce anche
lattuale scenario delleurozona. Con politiche di bilancio pubblico votate allausterity, in vari paesi la crescita
nominale del reddito resta troppo bassa, situandosi spesso al di sotto dei tassi dinteresse di mercato. Ci
significa che lattuale politica monetaria della BCE non in grado di frenare la tendenza europea alla
centralizzazione, ossia alle liquidazioni dei capitali situati nelle aree periferiche e alla loro eventuale
acquisizione da parte di capitali presenti in Germania e nelle zone caratterizzate da migliori andamenti
macroeconomici. Questa tendenza ben documentata dalla drammatica divaricazione tra i tassi di insolvenza
delle imprese europee (Creditreform 2016). Tra il 2007 ed il 2015 la Germania ha segnato una riduzione delle
insolvenze delle imprese a un ritmo medio del 3 percento allanno. Al contrario, nello stesso periodo Spagna,
Portogallo e Italia hanno fatto registrare una violenta crescita delle insolvenze, con incrementi medi
rispettivamente del 37, del 21 e del 16 percento allanno. Negli ultimi tempi in Spagna si assistito a un calo
9
dei fallimenti, che tuttavia non consente nemmeno di avvicinarsi alla situazione ante-crisi. In Italia il quadro
non migliora, mentre in Portogallo nellultimo anno si registra addirittura un ulteriore aggravamento delle
bancarotte. Si tratta di una forbice senza precedenti, che oltretutto si ripercuote sugli andamenti dei bilanci
delle banche dei diversi paesi dellUnione, creando i presupposti per nuove, asimmetriche crisi bancarie.
E dunque illusorio pensare che la BCE, da sola, sia in grado di contrastare la deflazione. La sua
politica monetaria, piuttosto, influisce sulle insolvenze e sulle liquidazioni dei capitali, che tuttora colpiscono
in modo asimmetrico i paesi membri dellUnione. Anzich attardarsi su target dinflazione impossibili, su
questultimo problema che il dibattito di politica monetaria dovrebbe maggiormente concentrarsi.
Bibliografia
Brancaccio, E., Fontana, G. (2015). Solvency rule and capital centralisation in a monetary union, Cambridge Journal of Economics,
advance access online, 29 October.
Brancaccio, E., Fontana, G., Lopreite, M., Realfonzo, R. (2015). Monetary Policy Rules and Directions of Causality: A test for the Euro
Area, Journal of Post Keynesian Economics, 38 (4).
Tra gli esponenti delle diverse scuole di pensiero economico, tuttavia, possono anche
verificarsi episodi di convergenza nella interpretazione di determinati fenomeni. Nel
caso della crisi dellEurozona e dellUnione europea, iniziata nel 2010 e ancora non
superata, la Lettera degli economisti pubblicata il 10 giugno 2010 sul Sole 24 Ore e il
successivo Monito degli economisti pubblicato il 23 settembre 2013 sul Financial
Times, rappresentano esempi interessanti. Questi documenti, infatti, sono stati
sottoscritti da studiosi che, sebbene appartenenti a diversi filoni di ricerca, hanno scelto
di condividere una particolare interpretazione critica delle politiche economiche che le
autorit europee e i governi dei paesi membri dellUnione hanno adottato per
fronteggiare la crisi.
10
1) = 0 + 1 ( )
2) = 0
3) = 0
4) = 0 +
5) = + +
La forma strutturale del modello utile per comprendere la concezione che esso
suggerisce in merito al funzionamento del sistema economico. Tuttavia, per calcolare le
endogene utile passare alla forma ridotta. A tale scopo possiamo esprimere le
endogene Y, C in funzione delle sole esogene. Sostituendo e riarrangiando, otteniamo il
seguente sistema (1) di due equazioni in due incognite Y e C:
1
= ( + 0 + 0 1 0 )
1 1 (1 ) 0
(1 )
1 (1 )(0 + 0 + 0 1 0 )
= 0 1 0 +
1 1 (1 )
12
ESEMPIO: assumendo che il parametro del sistema economico sia c1 = 0,8, che le
variabili esogene di comportamento degli agenti privati siano c0 = 50, I0 = 150, e che le
variabili esogene di politica economica siano G0 = 120, , t = 0,1, T0 = 100, verifica che
le due variabili endogene corrispondono a Y = 857,14 e C = 587,14.
1 = 1 (1 , 2 , , )
2 = 2 (1 , 2 , , )
.. . .
= (1 , 2 , , )
1 = 11 1 + 12 2 + + 1
. . . .
= 1 1 + 2 2 + +
dove i termini aij rappresentano i parametri del modello. Questo tipo di sistemi potr
essere espresso anche in forma di algebra matriciale, con y vettore (m x 1) delle
endogene, x vettore (n x 1) delle esogene e A matrice (m x n) dei coefficienti:
y = Ax
Tra le variabili di un modello di politica economica esistono anche quelle che assolvono
al ruolo di obiettivi politici e quelle che fungono da strumenti per il perseguimento
degli obiettivi.
Gli strumenti indicano quelle variabili che vengono usate dai policymakers come leve
per raggiungere un dato obiettivo di politica economica. Ovviamente uno strumento
tale se risulta effettivamente controllabile dallautorit di governo. Consideriamo ad
esempio il caso di una banca centrale che intenda controllare il tasso dinteresse interno
per perseguire determinati obiettivi di occupazione e sostenibilit del debito. In una
situazione di perfetta mobilit internazionale dei capitali i possessori di capitali
cercano di spostare le loro ricchezze in quei paesi che garantiscono i maggiori vantaggi,
e in particolare assicurano tassi dinteresse pi elevati rispetto agli altri. Pertanto, i
movimenti di capitale si arrestano solo nel momento in cui i titoli dei vari paesi offrono
il medesimo rendimento, al netto delle variazioni attese del tasso di cambio. La
condizione sotto la quale gli spostamenti di capitale si interrompono, e che mette
dunque in equilibrio i mercati, detta condizione di arbitraggio o condizione di parit
scoperta dei tassi dinteresse. Nel manuale di macroeconomia di Blanchard tale
condizione data da:
Et
1 it (1 it* )
Ete1
dove la parte sinistra indica il rendimento i che si ottiene acquistando titoli nazionali,
mentre la parte destra indica il rendimento i* derivante dallacquisto di titoli esteri.
Questo secondo rendimento, si badi, calcolato includendo le eventuali variazioni del
tasso di cambio nominale E. Finch la parte sinistra risulta inferiore alla parte destra
dellequazione, allora conviene spostare i capitali allestero per acquistare titoli
stranieri, che rendono di pi. Viceversa, nel caso in cui la parte sinistra sia maggiore,
conviene tenere i capitali in patria. Si comprende pertanto che se la banca centrale vuole
evitare fughe di capitali allestero, dovr fissare un tasso dinteresse interno in grado di
rispettare la condizione di parit scoperta, dati il tasso prevalente allestero e il tasso di
cambio atteso. Il risultato che il tasso dinteresse nazionale i non si trova sotto il
pieno controllo della banca centrale, e quindi difficilmente potr esser considerato
uno strumento di politica economica. Una sezione del volume Anti-Blanchard
dedicata ai criteri tramite i quali si pu nuovamente rendere il tasso dinteresse uno
strumento controllabile dalla banca centrale, tramite ad esempio tassazioni o controlli
amministrativi sui movimenti internazionali di capitale.
Una variabile, per esser considerata uno strumento, deve anche avere un impatto sulle
variabili obiettivo del modello. Riprendiamo ad esempio il modello keynesiano (1) di
determinazione della produzione di equilibrio. Se lobiettivo quello di conseguire un
certo livello di produzione Y, la spesa pubblica G potr esser considerata un valido
strumento di policy solo se la derivata della produzione rispetto alla spesa pubblica
dY/dG maggiore di zero. Ossia:
14
1
(6) = >0
1 1 (1 )
Infine, riprendiamo il modello in forma ridotta descritto alla fine del paragrafo
precedente. Possiamo affermare che quando il modello viene esaminato da un punto di
vista puramente positivo, allora gli obiettivi y sono considerati endogene da determinare
mentre gli strumenti x sono valutati come esogene date, proprio come rappresentato nel
modello del paragrafo precedente. Se per si vuole analizzare il modello da un punto di
vista normativo, allora preferibile ribaltare lanalisi considerando gli obiettivi y come
variabili esogene predeterminate dallautorit politica, e gli strumenti x come variabili
endogene da determinare in funzione degli obiettivi fissati. In pratica, se prima avevamo
equazioni del tipo y = f(x), ora bisogna calcolare le rispettive funzioni inverse e ottenere
x = f-1(y). Si ottiene cos la forma ridotta inversa del modello:
1 = 1 (1 , 2 , , )
2 = 2 (1 , , , )
.. . .
= (1 , 2 , , )
Possiamo sintetizzare questi risultati nella cosiddetta regola aurea della politica
economica suggerita dal premio Nobel Jan Timbergen: condizione necessaria
affinch un modello di politica economica a obiettivi fissi sia controllabile, che il
numero degli strumenti sia almeno pari al numero degli obiettivi.
0 = 0
(1)
0
0 = + (1 )
1
ESEMPIO: assumendo che il parametro del sistema economico sia c1 = 0,8, che le
variabili esogene di comportamento di famiglie e imprese private siano C0 = 50, I0 =
150, che laliquota dimposta sia t = 0,1 e che gli obiettivi di politica economica siano
variabili esogene fissate a Y = 857,14 e C = 587,14, utilizza il sistema in forma ridotta
inversa (1) per verificare che tali obiettivi esogeni possono essere conseguiti solo se gli
strumenti di politica economica corrispondono a G0 = 120 e T0 = 100.
Abbiamo detto che quando gli obiettivi fissi eccedono gli strumenti il sistema
sovradeterminato e il modello di politica economica non ammette soluzioni. Un modo
per ovviare al problema pu consistere nel ridurre il numero degli obiettivi e nel renderli
flessibili. Per esempio, supponiamo che gli obiettivi di politica economica siano due,
linflazione e la disoccupazione, e che lunico strumento di policy disponibile sia
soltanto la spesa pubblica. In tal caso, per rendere il modello controllabile le autorit
possono ridurre i due obiettivi a uno solo, convogliando linflazione e la disoccupazione
in ununica funzione, detta funzione di perdita (loss function) del policymaker. Un
esempio di funzione di perdita pu essere questo:
= 1 ( )2 + 2 ( )2
= + .
= .
Fino a questo momento abbiamo ipotizzato che un modello del tipo y = Ax ponesse
semplicemente il problema di verificare se, dato il numero di obiettivi e di strumenti, la
regola aurea di Timbergen fosse rispettata. In questo senso, abbiamo ipotizzato che i
parametri contenuti nella matrice A fossero gi determinati e sufficientemente stabili
nel tempo anche al variare di x e y. Nel caso del semplice modello keynesiano di
determinazione della produzione, ci significa assumere, per esempio, che il parametro
c1 sia stato gi determinato tramite indagine statistica e sia risultato stabile anche a
seguito di variazioni nei valori assunti da obiettivi come Y e da strumenti come G0.
Sulla base di questa impostazione, gli economisti utilizzano versioni pi sofisticate del
modello keynesiano, ma concettualmente molto simili ad esso, per elaborare modelli
econometrici tesi a fare previsioni circa, per esempio, leffetto delle variazioni della
spesa pubblica sugli andamenti della produzione, e cos via.
Leconomista e premio Nobel Robert Lucas ha avanzato nel 1976 una celebre critica ai
modelli econometrici tradizionali basati sullidea di costanza dei parametri. Egli ha
infatti sostenuto che al mutare degli orientamenti di politica economica delle
autorit di governo si verificano anche cambiamenti nei comportamenti degli
agenti privati, i quali a loro volta modificheranno i parametri dei modelli econometrici
di previsione. Secondo Lucas, dunque, se le autorit di governo pretendono di prevedere
1
Di Tella, Rafael; MacCulloch, Robert J. and Oswald, Andrew (2001). "Preferences over Inflation and
Unemployment: Evidence from Surveys of Happiness". American Economic Review. 91 (1).
19
gli effetti delle loro politiche assumendo parametri comportamentali dati, esse
commettono un errore che finir per inficiare le loro aspettative, rendendo impossibile
un esercizio razionale dellazione di policy.
Dalla critica di Lucas alcuni studiosi hanno tratto limplicazione, tipicamente liberista,
secondo cui gli effetti dellazione delle autorit di politica economica sono troppo
difficili da prevedere, e quindi sarebbe bene che le autorit si limitassero a
determinare i livelli delle variabili di politica economica in base a regole fisse ed
evitassero di modificarli ogni volta su basi discrezionali. Altri ricercatori hanno
invece sostenuto che, per ovviare alla critica di Lucas, occorre dare fondamento
microeconomico ai parametri strutturali dei modelli macroeconometrici: ogni
parametro, cio, deve essere determinato in base a dei modelli che tengano conto delle
possibili interazioni tra le decisioni delle autorit di governo e i comportamenti delle
famiglie e delle imprese private.
spesa pubblica aumenta i redditi futuri, gli agenti privati avranno meno ragioni di
ridurre la propensione al consumo per prepararsi a eventuali esborsi fiscali futuri.
Supponiamo ora che le dotazioni iniziali di cibo e di vestiario di Anna e Paolo siano
rappresentate dal punto A sul grafico. Ebbene, si pu notare che entrambi i consumatori
potrebbero trarre mutuo vantaggio da una serie di scambi. Per esempio, se Paolo
cedesse un po del suo cibo e Anna cedesse in cambio un po del suo vestiario, i due
potrebbero posizionarsi su un nuovo punto, ad esempio C, dove entrambi si
troverebbero su una curva di indifferenza caratterizzata da una utilit pi alta. Pi in
generale, possiamo affermare che se i due consumatori partono da dotazioni di cibo e
vestiario rappresentate dal punto A, allora si potr determinare un miglioramento
dellutilit di entrambi o almeno di uno dei due consumatori effettuando liberamente
scambi che consentano uno spostamento su uno qualsiasi dei punti situati sulla linea B,
C, D. Questi sono punti di equilibrio perch sono punti di tangenza tra le curve di
indifferenza dei due consumatori: ci significa che, giunti su uno di quei punti, non sar
pi possibile effettuare scambi mutuamente vantaggiosi per entrambi, cio non si potr
migliorare ulteriormente la situazione di un consumatore senza peggiorare quella
dellaltro (lo studente noti che, per esempio, una volta giunti su un punto come C
qualsiasi movimento comporter o un peggioramento della situazione di Paolo o un
peggioramento della situazione di Anna, e quindi chiaro che da quel punto non ci sar
22
pi mutuo interesse a effettuare scambi e a spostarsi). Dunque, una volta che si giunga
su un punto di tangenza, gli scambi si fermeranno e lequilibrio Pareto-efficiente sar
raggiunto.
Ovviamente, non difficile notare che il punto di posizionamento sulla curva dei
contratti dipender in misura significativa dalle dotazioni iniziali. Se si parte da un
punto come A allora gli scambi potranno condurre a uno dei punti lungo il segmento B-
D. Se per si parte da un punto come G, allora il gioco degli scambi di mercato potr
condurre a un punto situato lungo il segmento E-H. In tutti i casi si tratta di equilibri
Pareto-efficienti, nel senso che una volta giunti in essi non ci saranno altri scambi
mutuamente vantaggiosi da realizzare e quindi non ci sar pi incentivo a effettuarli. Ma
ovvio che per Anna e Paolo si tratta di situazioni molto diverse tra loro. E chiaro cio
che lungo la curva dei contratti esisteranno equilibri Pareto-efficienti preferiti da Anna
(ad esempio F), altri preferiti da Paolo (ad esempio H), altri ancora che appaiono
maggiormente equi (per esempio C). Il fatto che si raggiunga luno o laltro di questi
equilibri dipende dalla situazione da cui si parte, cio da quante dotazioni di beni
dispone ciascuno dei due soggetti. Se si parte da una situazione come il punto G, in cui
Paolo chiaramente ricco di dotazioni mentre Anna chiaramente povera, gli
scambi potranno portarli su un punto come E che determiner mutui vantaggi per
entrambi. Ma evidente che dal punto di vista della equit tra i due soggetti le cose non
cambieranno granch.
Pareto tuttavia non era persuaso dallidea di consentire redistribuzioni di risorse tra i
vari agenti economici. Egli si dichiarava contrario agli interventi politici per fini di
equit. A suo avviso, i livelli di utilit di due consumatori sono del tutto soggettivi e
quindi non sono confrontabili. Se prendiamo ad esempio un punto come G, evidente
23
che in esso Paolo dispone di una dotazione iniziale di cibo e vestiario molto maggiore
rispetto ad Anna. Paolo, insomma, oggettivamente pi ricco. Per Pareto, tuttavia, ci
non consente di affermare che Paolo abbia unutilit superiore a quella di Anna. In altre
parole, le curve di indifferenza di Paolo possono essere ordinate tra di loro, partendo da
quella che fornisce lutilit pi bassa e arrivando a quella che fornisce lutilit pi alta.
Ma quelle curve non possono in alcun modo essere messe a confronto con le curve
dindifferenza e i rispettivi livelli di utilit di Anna. Si dice in questo senso che Pareto
elabora un criterio ordinalista che consenta di indicare lordine delle situazioni
preferite da un singolo soggetto, ma nega validit scientifica a qualsiasi criterio
cardinalista che pretenda di assegnare specifici numeri a ciascuna situazione in modo
da poter poi comparare le situazioni di soggetti diversi.
Lordinalismo di Pareto genera dunque una posizione liberista estrema, che suggerisce
di affidarsi solo al mercato e contesta qualsiasi intervento pubblico votato allequit
distributiva. In altre parole, data lipotesi di non confrontabilit delle utilit dei diversi
membri di una collettivit, qualsiasi politica redistributiva sarebbe un atto arbitrario,
privo di basi scientifiche per esser giustificata.
La visione di Pareto risulta tuttora prevalente tra gli economisti neoclassici. Essa
tuttavia stata criticata per due ordini di ragioni. In primo luogo, il premio Nobel
Kenneth Arrow ha dimostrato il cosiddetto teorema di impossibilit: se si assume il
principio paretiano e si aggiungono altre ipotesi standard neoclassiche, tra cui la
completezza delle preferenze, la transitivit e la non-dittatorialit delle preferenze di un
individuo sugli altri, allora non sar possibile trarre una funzione di benessere sociale in
grado di ordinare tutte le situazioni possibili. Curiosamente, il principio di Pareto, che
avrebbe dovuto salvaguardare la collettivit da scelte politiche arbitarie, risulta essere
incompatibile con un regime non dittatoriale. A questo risultato si aggiunge la critica di
Amartya Sen, un altro premio Nobel, il quale ha delineato il cosiddetto paradosso de
Lamante di Lady Chatterley. Alla luce di questo paradosso, Sen afferma che il
principio di Pareto in un certo senso illiberale essendo incompatibile con il
cosiddetto liberalismo di minima, consistente nel fatto che per ogni individuo deve
esistere almeno unalternativa sulla quale la preferenza personale implica la stessa
preferenza sociale.
24
Ad olgni modo, la visione di Pareto non da tutti condivisa. Alcuni studiosi, pur
neoclassici, hanno accettato una impostazione cardinalista, secondo la quale le utilit
dei singoli individui possono essere sommate e si pu quindi giungere alla
determinazione di una funzione di benessere sociale riferita allintera collettivit.
Esistono in tal senso vari esempi di funzioni di benessere sociale. C la funzione
Benthamiana, che data semplicemente dalla somma delle utilit individuali di
ciascun membro della popolazione. Ad esempio, nel caso di una collettivit di due soli
membri, si ha: U = U1+U2. C poi la funzione Pigouviana, che si basa sullipotesi
di utilit marginale decrescente della ricchezza: U = U1U2. Esiste poi la funzione
Rawlsiana, che descrive idealmente la scelta alla quale perverrebbe una collettivit
nel caso puramente ipotetico in cui fosse costretta a decidere la distribuzione delle
risorse sotto un velo di ignoranza, ossia prima di conoscere la posizione sociale che
ciascuno dei suoi membri assumer: U = min [U1, U2]. Per quanto diverse tra loro, tutte
queste funzioni si basano sul presupposto della confrontabilit e sommabilit delle
utilit di ciascun membro di una data popolazione, il quale offre un criterio analitico che
pu giustificare il perseguimento da parte delle autorit di eventuali obiettivi di
redistribuzione delle risorse.
Ispirati da unidea della societ divisa in classi contrapposte, tipica degli economisti
classici e di Marx, gli odierni esponenti delle scuole pensiero economico critico
considerano metodologicamente improbo costruire una funzione di benessere sociale in
grado di definire gli obiettivi generali delle autorit di governo. Stando alla loro visione,
infatti, ogni scelta di politica economica tende ad essser portatrice di un interesse
prevalente allinterno della societ, e di conseguenza susciter sempre un conflitto tra i
favorevoli e i contrari ad essa.
25
II
POLITICA ECONOMICA DEL LAVORO
In ciascun paese gli istituti di statistica raccolgono ed elaborano dati inerenti al lavoro.
In Italia lISTAT pubblica periodicamente la Indagine sulle forze di lavoro. Lo studio
fornisce varie serie di dati, tra cui quelli relativi alloccupazione e alla disoccupazione.
La maggior parte dei dati viene raccolta tramite interviste a campioni di popolazione.
Riportiamo alcune definizioni adottate dallISTAT e dagli altri istituti di statistica nelle
loro indagini campionarie. In primo luogo, le forze di lavoro sono rappresentate dalle
persone tra i 15 e i 64 anni di et occupate oppure in cerca di occupazione.
Le persone occupate sono coloro che hanno svolto almeno 1 ora di lavoro nella
settimana precedente con corrispettivo monetario (oppure anche senza corrispettivo se
lavorano abitualmente in una azienda familiare), oppure sono temporaneamente assenti
dal lavoro (per ferie o per malattia). Qui di seguito riportato uno schema che indica il
modo in cui i questionari dellISTAT distinguono tra persone occupate e non.
26
27
Il seguente cartogramma riporta i dati relativi alla ripartizione delle forze lavoro in Italia
nel 2012:
28
29
Si noti che le percentuali riportate nei riquadri sono calcolate in rapporto al totale della
popolazione residente. E possibile tuttavia calcolare anche altre percentuali. Per
esempio, sapendo che i lavoratori dipendenti con contratto a termine sono 1.617.000 a
tempo pieno e 615.000 a tempo parziale, e che il totale dei lavoratori dipendenti
17.087.000, allora si pu verificare che i lavoratori dipendenti con contratto a
termine rappresentano il 13,06% del totale dei lavoratori dipendenti
(1.617.000+615.000=2.232.000/17.087.000=0,1306). Naturalmente, questa percentuale
non tiene conto del fatto che spesso tra i lavoratori definiti indipendenti in realt si
nascondono molte situazioni di lavoro dipendenti sostanzialmente a termine: il caso
per esempio degli agenti di commercio. Inoltre, se guardiamo non al totale dei contratti
ma solo alle nuove assunzioni, il numero dei rapporti di lavoro a termine aumenta
considerevolmente: lISTAT segnala che tra il 2005 e il 2010 i contratti a termine
stipulati dalle grandi imprese sono stati il 71,5% del totale delle assunzioni.
Dai dati riportati nel cartogramma inoltre possibile ricavare altri indicatori. Si
consideri per esempio la forza lavoro, data dalla somme delle persone occupate e delle
persone in cerca di occupazione. Nel 2012, la forza lavoro era pari a
22.793.000+2.801.000 = 25.594.000 unit. E inoltre possibile calcolare il tasso di
disoccupazione, dato dal rapporto fra persone in cerca di occupazione e la forza lavoro:
nel 2012 era pari a 2.801.000/25.594.000 = 0,109, ossia il 10,9%. C poi il tasso di
occupazione, dato dal rapporto fra gli occupati e la corrispondente popolazione di
riferimento (solitamente si calcola sulla popolazione in et lavorativa, tra 15 e 64 anni):
nel 2012 esso era pari a 22.793.000/40.033.000 = 0,569, ossia 56,9%. E inoltre
possibile calcolare il tasso di attivit, dato dal rapporto fra le persone appartenenti alle
forze di lavoro e la corrispondente popolazione di riferimento, solitamente quella in et
lavorativa; e il tasso di inattivit, dato dal rapporto fra gli inattivi e la corrispondente
popolazione di riferimento, solitamente quella in et lavorativa. La somma dei tassi di
attivit e inattivit deve dare 1.
Il tasso di disoccupazione forse lindicatore pi comune tra tutti quelli citati, ma non
sufficiente per valutare la situazione occupazionale di un paese. Esso ha infatti vari
limiti: per esempio, dato che non contempla i lavoratori scoraggiati, rischia di condurre
a risultati fuorvianti. Pensiamo a una situazione in cui, a causa del protrarsi della crisi
economica, alcune persone smettono di cercare attivamente un lavoro. Guardando al
cartogramma precedente, possiamo supporre per esempio che 200.000 persone passino
dallo stato di persone in cerca di occupazione allo stato di persone inattive in et
lavorativa. Ebbene, in questa circostanza sia le persone in cerca di lavoro che la forza
lavoro si riducono di 200.000 unit, e il tasso di disoccupazione diminuisce:
2.601.000/25.394.000 = 0,102, ossia il 10,2%. In apparenza dunque la disoccupazione si
ridotta, ma ci dipende solo dal fatto che molte persone, a causa della crisi, si sono
rassegnate e hanno smesso di cercare lavoro. Si noti per che anche il tasso di
occupazione presenta un limite: nel caso dei 200.000 scoraggiati in pi esso non
reagisce minimamente, cio non in grado di rilevare il fenomeno. Invece, i tassi di
attivit e di inattivit riflettono correttamente il fenomeno degli scoraggiati, ed quindi
ad essi che occorre guardare per valutarne lentit. Una corretta valutazione della
situazione occupazionale di un paese dovrebbe dunque basarsi su pi indicatori.
30
Di grande rilevanza sono anche i dati sul lavoro suddivisi per genere, che consentono
di esaminare la posizione delle donne sul mercato del lavoro nei diversi paesi. Nel
2012, in Italia, il tasso di attivit femminile era del 53,7%, inferiore di circa 11 punti
percentuali alla media dei tassi di attivit delle donne nella Ue a 27 paesi. E da notare
che il tasso di attivit femminile aumentato in misura significativa a seguito della crisi
economica esplosa nel 2008: mentre il tasso di attivit medio tra il 2008 e il 2012
aumentava di 0,8 punti, il tasso di attivit femminile cresciuto di due punti percentuali.
La crisi sembra cio avere spinto un numero maggiore di donne a entrare nel mercato
del lavoro:
Tra uomini e donne sussiste anche un divario nelle retribuzioni a favore dei primi: la
Banca dItalia ha calcolato che nel periodo 1995-2008 esso era pari al 6% in media;
inoltre, esaminando lavoratori e lavoratrici con qualifiche comparabili in termini di
istruzione, esperienza, ecc. e con tipi di lavoro equivalenti in termini di qualifica, orario,
ecc., il divario superava il 13% nel 2008. E da notare tuttavia che tale divario, secondo
lIstat, inferiore a quello che si registra negli USA e in Gran Bretagna (intorno al 25%)
31
e nei paesi del Nord Europa (15% circa). Il risultato si spiegherebbe con il fatto che in
Italia si registra una minore partecipazione al mercato del lavoro delle donne meno
istruite.
Altrettanto importanti sono poi gli indicatori che si soffermano sulla situazione
occupazionale dei pi giovani, con particolare riguardo alla fascia tra i 15 e i 24 anni.
I giovani si ritrovano oggi con dei salari dingresso molto pi bassi rispetto al livello
dei salari di ingresso che si registravano nei decenni passati. Una ricerca della Banca
dItalia del 2007 ha evidenziato che il differenziale tra salari dei lavoratori anziani e
salari dei pi giovani prima diminuito e poi aumentato: nel 2004 i lavoratori giovani
guadagnavano il 35% in meno dei lavoratori anziani; alla fine degli anni 70 il
differenziale tra i salari dei pi anziani e quelli dei pi giovani era del 25%, mentre nel
1989 era del 20%.
Riguardo agli andamenti occupazionali, lISTAT segnala che a fine 2012 i giovani in
cerca di lavoro in Italia sono stati 641.000. Il tasso di disoccupazione giovanile,
calcolato sulla fascia dei 15-24enni, stato pari al 37,1%. Stando ai dati EROSTAT,
questo risultato fa s che lItalia si ritrovi con il quarto pi elevato tasso di
disoccupazione giovanile nella Ue a 27, dopo Grecia, Spagna e Portogallo. La media Ue
pari al 22,8%:
Osserviamo qui di seguito il grafico del mercato del lavoro di Blanchard. Partiamo da
una situazione descritta dal punto A, corrispondente a un equilibrio naturale con un
livello di disoccupazione pari a un. Blanchard e gli altri esponenti del mainstream
ammettono che una parte almeno di questo livello di disoccupazione potrebbe essere
costituita da disoccupati involontari. Viene allora da chiedersi: cosa impedisce ai
disoccupati involontari di esercitare una pressione concorrenziale al ribasso, che
consenta di ridurre il parametro di conflittualit z e di abbassare la curva del salario
reale richiesto dai lavoratori? Cosa ostacola cio quel processo di underbidding che
dovrebbe portare lequilibrio nel punto B, in cui lequilibrio naturale presenta un livello
33
W/P
B A
un un
gli altri poich si ritiene che esista una relazione tra livello del salario e livello
dellimpegno lavorativo:
Pertanto, solo se il salario reale W/P abbastanza alto da soddisfare i lavoratori, allora
questi ultimi si impegnano anzich imboscarsi per evitare di lavorare (in inglese si
dice shirking). Descriviamo il modello, cominciando con le definizioni delle variabili:
Ves W q (Ves Vu ) e
W qVu
Ves
1 q
35
Passiamo ora alla descrizione della utilit del lavoratore che non si imbosca. Essa data
dal salario meno lo sforzo, che in tal caso positivo:
Ven W e
W qVu W q
W e W Vu e
1 q 1 q 1 q
W q
W Vu e
1 q 1 q
1 q
1 W Vu e
1 q 1 q
q q
W Vu e
1 q 1 q
Da cui:
1 q
(1) W Vu e W *
q
Lequazione (1) chiarisce che il salario W erogato dallimpresa deve essere maggiore o
al limite uguale al vincolo descritto. Limpresa non pu scendere al di sotto di esso se
vuole che i lavoratori si impegnino. Ponendo il vincolo con segno di stretta uguaglianza
si ottiene dunque il salario W* minimo necessario per indurre i lavoratori a impegnarsi e
non imboscarsi.
Passiamo ora dallanalisi della singola impresa allanalisi dellequilibrio del mercato. Si
ha equilibrio del mercato quando le imprese offrono un livello di W tale da essere certe
che Ve Ven , cio che i lavoratori non si imboschino. Fissando questa condizione di
equilibrio, possibile determinare lutilit dei disoccupati Vu , che ci consentir poi di
ottenere un valore certo del salario minimo W*. Lutilit dei disoccupati data dal
sussidio di disoccupazione pi la probabilit per i disoccupati di trovare un nuovo
lavoro moltiplicata per il guadagno che scaturirebbe dal passaggio da uno stato di
disoccupazione a uno di occupazione:
Vu W a(Ve Vu )
Poich lequilibrio corrisponde a una situazione in cui le imprese fisano un salario tale
che lavoratori si impegnino, allora: Ve Ven . Ma allora possiamo scrivere che:
Ven W e . Di conseguenza, sostituendo, avremo:
36
Vu W a (W e Vu )
Vu W a (W e) aVu
(1 a )Vu W a (W e)
W a (W e)
Vu
1 a
Possiamo ora sostituire il valore di Vu nella equazione (1) del salario minimo necessario
affinch i lavoratori non si imboschino. Avremo:
W a(W e) 1 q
W e
1 a q
1 +
+
1+ 1+
1 +
(1 ) +
1+ 1+
1
1+
( ) +
1+ 1+ 1+
(1 + )(1 + )
+
(1 + )(1 + )
+[
]
(1 + )(1 + )
+[
]
Da cui:
1++
(2) +(
) =
Inoltre, visto che la probabilit di trovare un nuovo impiego dipende in modo inverso
dalla disoccupazione, allora si pu scrivere a = a (u) nellequazione (2). In tal caso
lequazione pu essere intesa come un possibile sostituto della curva del salario reale
richiesto dai lavoratori, che caratterizza il modello di Blanchard. Nel caso in cui
non sussista una contrattazione sindacale infatti pi difficile giustificare una curva del
salario rivendicato dai lavoratori. In tal caso pu essere allora utile sostituirla con
lequazione (2), che diventa la curva del salario minimo necessario per indurre i
lavoratori a non imboscarsi. Intersecandola con la consueta curva del salario reale
offerto dalle imprese di Blanchard, si ottiene cos un altro criterio per determinare il
tasso di disoccupazione naturale un. Questo dipender, tra laltro, dalla posizione della
curva del salario minimo per indurre i lavoratori a non imboscarsi, che a sua volta
, e, q.
dipende dalle variabili
W/P
A/(1 + )
, e, q]
W* [a(u),
un u
38
Come fare allora per fare abbassare la curva W* in modo da ridurre il tasso di
disoccupazione di equilibrio? Una soluzione ridurre il sussidio di disoccupazione,
oppure aumentare il monitoraggio sui lavoratori in modo da aumentare la probabilit
di scoprire gli imboscati. In questi casi la curva W* trasla in basso e quindi la
disoccupazione di equilibrio si riduce, riducendo cos anche il numero dei disoccupati
involontari. Si tenga presente, per, che questo risultato non pu verificarsi
semplicemente tramite una competizione salariale al ribasso dei disoccupati involontari.
Il meccanismo dellunderbidding non funziona. Occorre invece che le imprese
aumentino i controlli interni, oppure necessario ridurre i sussidi in modo da rendere la
disoccupazione pi gravosa e quindi pi disciplinante.
I modelli del mercato del lavoro che abbiamo descritto ci aiutano a capire in che modo
le imperfezioni di mercato e le asimmetrie informative fanno s che lequilibrio naturale
del modello macroeconomico di Blanchard sia caratterizzato da disoccupazione
involontaria. Addirittura, la versione di questi modelli che studia listeresi chiarisce che
lo stesso equilibrio naturale, in casi estremi, pu perdere di rilevanza. I risultati
conseguiti sono importanti, ed hanno inciso molto sul dibattito di teoria e politica del
lavoro degli ultimi anni. Essi tuttavia dipendono da una serie di complicazioni, come le
imperfezioni e le asimmetrie, che si aggiungono al modello macroeconomico
mainstream ma che non ne modificano le caratteristiche di fondo. Potremmo dire, in
sostanza, che questi modelli offrono delle interpretazioni pi approfondite dellanalisi
mainstream del mercato del lavoro, e quindi anche dei fondamenti della curva di offerta
aggregata AS del modello macroeconomico di Blanchard.
Nei dibattiti di politica del lavoro si fa spesso riferimento alla cosiddetta curva di
Beveridge. La curva descrive una regolarit empirica segnalata per la prima volta nel
1942 dalleconomista britannico William Beveridge, e in seguito riscontrata da molti
altri economisti. Il nesso statistico tra il tasso di disoccupazione e il tasso di posti
vacanti, dove questultimo indica il numero di casi in cui le imprese cercano lavoratori
ma non li trovano. Definendo il numero di lavoratori disoccupati con U, il numero di
posti di lavoro vacanti con V, il numero di lavoratori occupati con N e la forza lavoro
disponibile con L = U + N, possibile definire il tasso di disoccupazione con u = U/L e
il tasso di posti vacanti con v = V/L. Assumendo che sia un parametro esogeno
maggiore di zero, la relazione statistica pu essere descritta dalla seguente equazione:
= uv, da cui:
= /
Dato il parametro , possiamo dunque tracciare una relazione inversa tra le due variabili.
La relazione descrive innanzitutto gli effetti del ciclo economico sul mercato del
40
lavoro. In fasi di recessione, la domanda di lavoro da parte delle imprese bassa, per
cui il tasso di disoccupazione elevato mentre il tasso di posti vacanti basso. In fasi di
espansione, invece, le imprese aumentano la richiesta di lavoratori e quindi il tasso di
disoccupazione si riduce mentre il tasso di posti vacanti tende ad aumentare. Il ciclo di
recessioni ed espansioni pu quindi essere descritto da movimenti lungo la curva di
Beveridge: per esempio, osservando il grafico, la combinazione v0, u0 corrisponde a una
fase di espansione, mentre la combinazione v1, u1 corrisponde a una recessione.
u0
u1
v0 v1 v1 v
delle variabili pi dello spostamento della curva. In secondo luogo, gli aumenti del
parametro e i relativi spostamenti della curva di Beveridge potrebbero essere spiegati
anche da fattori diversi rispetto al livello dei sussidi o al cattivo funzionamento delle
agenzie del lavoro. Per esempio, soprattutto quando si attraversano pesanti recessioni, si
assiste pure a un cambiamento nella struttura produttiva di un paese. Molte imprese
falliscono e interi settori tendono a ridimensionarsi, ma qualche altro settore potrebbe
trovarsi con lesigenza di nuove assunzioni, magari con competenze specifiche (per
descrivere queste trasformazioni strutturali - che spesso si verificano nelle fasi di crisi
economica - leconomista Joseph Schumpeter parlava di distruzione creatrice). Per
esempio, il settore della finanza e delle assicurazioni pu perdere molti posti di lavoro,
mentre il settore della carpenteria specializzata potrebbe al tempo stesso trovarsi con
una esigenza di operai qualificati. In questi casi si presenta un problema di competenze.
Pertanto pu essere difficile la ricollocazione immediata dei disoccupati, e quindi si pu
registrare un piccolo aumento di posti vacanti in concomitanza di un forte aumento della
disoccupazione.
I modelli neoclassici e i modelli mainstream del mercato del lavoro tendono a valutare
negativamente i sussidi di disoccupazione, vigenti sotto varie forme in molti paesi. Nei
modelli neoclassici di Pigou e di Prescott, per esempio, lesistenza di un sussidio ai
disoccupati pu indurre i lavoratori a preferire maggiormente il tempo libero al lavoro.
La curva di offerta di lavoro pu quindi farsi pi ripida, il che riduce loccupazione e la
produzione di equilibrio naturale. Nel modello di Blanchard, il sussidio di
disoccupazione accresce il parametro di conflittualit z e determina quindi una
traslazione in alto della curva del salario reale richiesto. Il risultato, in equilibrio, che
il salario reale non muta ma la disoccupazione naturale aumenta, e loccupazione e la
produzione naturale si riducono. Anche nel modello di isteresi lesistenza di un sussidio
dovrebbe tradursi in una maggiore tendenza rivendicativa dei lavoratori, e quindi in un
aumento del salario monetario e dei prezzi; a parit di moneta, ci dovrebbe comportare
una maggiore disoccupazione, almeno temporanea. Fenomeni simili si verificano nel
modello dei salari di efficienza, dove un aumento del sussidio spinge verso lalto la
curva del salario minimo W* necessario per indurre i lavoratori a impegnarsi il che,
ancora una volta, accresce la disoccupazione naturale.
e salario offerto dalle imprese, con una conseguente tendenza alla crescita
dellinflazione. Nel modello dei salari di efficienza, se il salario minimo imposto per
legge inferiore al salario W* necessario per indurre i lavoratori a non imboscarsi,
allora la legge sul salario minimo non ha alcun effetto. Se invece il salario minimo
fissato dalla legge maggiore di W*, allora il risultato sar un aumento della
disoccupazione naturale.
Stando invece alle analisi delle scuole di pensiero critico, quali possono essere gli effetti
dei sussidi di disoccupazione e delle leggi sul salario minimo? Una risposta preliminare,
che tiene conto delle semplificazioni di un testo didattico, che lapproccio critico
avanza delle obiezioni al legame stringente tra dinamica dei salari e livelli di
occupazione che solitamente caratterizza le analisi neoclassiche e mainstream. Per gli
economisti critici, dunque, il salario minimo e il sussidio di disoccupazione possono
determinare degli effetti sui redditi dei lavoratori, e pi in generale sui rapporti di forza
tra la classe lavoratrice e la classe dei capitalisti proprietari. Ma difficile dire se e in
che modo tali effetti possano avere ripercussioni sulla produzione e sulloccupazione. In
altri termini, mentre i neoclassici e gli studiosi del mainstream ritengono che gli effetti
su queste variabili siano in genere negativi, gli economisti critici ammettono varie
possibilit, inclusa quella di un aumento delloccupazione. E il caso, questo, in cui il
salario minimo e il sussidio di disoccupazione rafforzano la posizione contrattuale dei
lavoratori, accrescono la dinamica dei salari reali e, per questa via, contribuiscono ad
aumentare la propensione al consumo, il moltiplicatore e quindi la domanda di merci, la
produzione e le relative assunzioni. Alcuni economisti di orientamento critico, inoltre,
sostengono che i sussidi e il salario minimo possono aiutare a fronteggiare meglio
una crisi economica. I sussidi consentono di ridurre le fluttuazioni della domanda di
consumi da parte dei lavoratori, il che riduce leffetto moltiplicativo della crisi. E il
salario minimo, ostacolando la deflazione, consente di contrastare quei fenomeni di
deflazione da debiti che, come viene descritto nellAnti-Blanchard, possono determinare
una AD crescente e aggravare ulteriormente la crisi.
43
III
POLITICHE STRUTTURALI
Esaminiamo in primo luogo il problema classico del confronto tra regimi di concorrenza
e regimi di monopolio. A tale scopo, utilizzeremo gli strumenti standard della teoria
neoclassica. Sul grafico seguente, sono rappresentati lequilibrio di un mercato di
monopolio ed anche lequilibrio di un mercato di concorrenza perfetta.
p,
CM,
CMG
H
CMG
B CM
c
p*
p C
F
A
E
D
RMG
O Q* Q
totali p*BQ*O e i costi totali AFQ*O. da notare che il surplus del consumatore
HBp*.
Per tutti questi motivi alcuni neoclassici ritengono che il monopolio danneggi
l'economia e che vada quindi contrastato con leggi anti-trust o politiche di
liberalizzazione che facilitino laccesso al mercato di eventuali concorrenti. Altri
45
p = 6 (xi + xj)
Supponiamo pure che la funzione del costo totale di produzione del bene, identica per
ciascuna delle due imprese, sia:
ci = 1 + xi
cj = 1 + xj
Il profitto di ciascuna impresa dunque dato dalla differenza tra ricavo totale e costo
totale, ossia:
i = (6 xi xj)xi 1 xi
46
j = (6 xi xj)xj 1 xj
La condizione del primo ordine per lindividuazione del massimo profitto richiede,
come sappiamo, che si ponga uguale a zero la derivata del profitto rispetto alla quantit.
Effettuiamo questo passaggio per entrambe le imprese:
= 6 1 = 0
= 6 1 = 0
xi = (5 xj)/2
xj = (5 xi)/2
xi = [5 (5 xi)/2]/2
Con pochi passaggi da questa espressione si ricava la quantit ottima per limpresa i,
corrispondente a: xi = 5/3. Sostituendo questo valore nella funzione di risposta ottima
dellimpresa j si ottiene la quantit ottima di questultima, che pure corrisponde a xj =
5/3 (luguaglianza ovvia, dato che per ipotesi le due imprese hanno la stessa
tecnologia e quindi anche la stessa funzione di costo). Le quantit ottime, cos ottenute,
corrispondono al cosiddetto equilibrio di Cournot.
Una volta note le quantit ottime si pu calcolare il prezzo di equilibrio del mercato,
corrispondente a p = 6 (5/3 + 5/3) = 8/3. Inoltre, note le quantit ottime si pu anche
determinare il valore del profitto ottimo dellimpresa i, che sar dato da: i = (6 5/3
5/3)5/3 1 5/3 = 16/9. Lo stesso profitto, ovviamente, sar guadagnato anche
dallimpresa j.
px = (6 x)x = 6x x2
e il profitto totale, dato dalla differenza tra ricavo totale e costo totale, :
= 6x x2 1 x = 5x x2 1
Imponendo la condizione del primo ordine per lindividuazione del massimo profitto
d/dx = 0 otteniamo:
5 2x = 0
da cui si trae la quantit ottima totale x = 5/2. Il prezzo di equilibrio sar quindi dato da
p = 6 5/2 = 7/2. Ora sostituiamo la quantit ottima nella equazione del profitto: =
5x x2 1, da cui otteniamo il profitto ottimo totale = 21/4.
A questo punto, supponiamo che le imprese colluse dividano in parti uguali quantit e
profitti. Quindi, dividendo per due la quantit ottima totale possiamo calcolare la
quantit ottima di ciascuna impresa: xi = xj = (5/2)/2 = 5/4. Infine, dividendo per due il
profitto totale ottimo possiamo determinare il profitto ottimo per ciascuna impresa: i =
j = (21/4)/2 = 21/8.
Rispetto allequilibrio non collusivo di Cournot, il cartello tra le due imprese consente
dunque di produrre una quantit totale inferiore a un prezzo superiore, e assicura dunque
un profitto pi elevato a ciascuna impresa. Questo uno dei motivi per cui si ritiene
che i cartelli debbano essere vietati dalla legge.
Da l a qualche anno il corso degli eventi avrebbe preso una piega ben diversa da quella
auspicata da Leontief. Potremmo dire, in un certo senso, che proprio dalle difficolt di
attecchimento del discorso sulla pianificazione scatur e si fece largo quella opposta idea
di accumulazione del capitale fondata sul libero mercato e sulla finanza privata, la cui
forma politica venne rappresentata dalla Reaganomics e che avrebbe dominato la scena
mondiale per i successivi trentanni. Oggi, dopo la cosiddetta grande recessione del
2008, c chi rileva varie inefficienze e instabilit nel regime di accumulazione
capitalistica detto di libero mercato e trainato dalla finanza privata, e dunque
suggerisce di tornare al sentiero alternativo suggerito da Leontief per provare a
valutarne la potenziale attualit.
Lidea di recupero del piano nel senso di Leontief verte sulla rilevazione di alcuni
limiti nellattuale meccanismo di riproduzione sociale, in cui le autorit politiche, stato e
banca centrale, sono relegate in una funzione puramente ancillare rispetto ai mercati fi-
nanziari: quella di regolare le condizioni di solvibilit del sistema, che di fatto
significa agire da meri prestatori di ultima istanza per il capitale privato. La definizione
di un meccanismo di riproduzione sociale alternativo richiederebbe dunque in primo
luogo lattribuzione alle autorit politiche di una funzione logicamente contrapposta a
quella corrente: lo stato e la banca centrale dovrebbero cio ripristinare e ampliare
quella che Reinhart e Rogoff hanno definito una repressione dei mercati finanziari e
un pesante uso dei controlli dei capitali, che caratterizzarono leconomia mondiale del
secondo dopoguerra e che per circa un trentennio favorirono una stabilit
macroeconomica mondiale senza precedenti. Ma soprattutto, la repressione finanziaria
determinerebbe le condizioni logiche necessarie per inaugurare un nuovo regime, in cui
lautorit pubblica assuma il controllo della circolazione monetaria al fine di agire quale
creatrice di prima istanza di nuova occupazione. Di prima istanza, ossia non per fini di
mera assistenza, ma per la produzione di quelle basic commodities, e quei beni col-
lettivi, che maggiormente incidono sulle condizioni del progresso materiale e civile
della societ e che, proprio per ci, non dovrebbero esser lasciate alla logica
dellimpresa capitalistica privata.
I critici del piano insistono sullidea che esso si baserebbe eccessivamente sulla
burocrazia statale, e segnalano come questa dia luogo a tutta una serie di fallimenti
dello Stato. I fautori di un recupero in chiave aggiornata del tema della pianificazione
battono invece sulla tesi secondo cui i fallimenti del mercato sono pi gravi e pi
pervasivi di quelli che possono essere imputati allautorit statale. C poi una questione
ulteriore, di ordine civile e politico. I critici della pianificazione sono anche convinti che
le libert individuali siano tutelate solo da un regime di libero mercato, mentre i fautori
di un recupero della logica di piano ritengono che a date condizioni questa possa
favorire unespansione dei diritti sociali e per questa via crei pure le condizioni per un
maggior sviluppo delle libert civili. Il dibattito resta aperto.
49
50
IV
INTERPRETI DELLA POLITICA ECONOMICA
2 Il vincolo di Tarantelli
Allinterno delle sue analisi, e in particolare nella sua opera principale, Ezio Tarantelli
fece riferimento ad un limite al di sotto del quale i sindacati e i lavoratori non possono
spingere il saggio di profitto nel regolare la matrice salariale. Il limite in questione
verteva sullidea secondo cui, dato un certo volume degli investimenti, il saggio di
profitto non pu scendere al di sotto del livello necessario a generare un ammontare
equivalente di risparmi e a garantire in tal modo il rispetto della condizione di equilibrio
macroeconomico (Economia politica del lavoro, cap. XIV, par. 5). Per lungo tempo
questa idea stata piuttosto in voga tra alcuni economisti della Cambridge britannica.
E interessante notare che essa stabilisce un vincolo alle rivendicazioni salariali che
almeno a prima vista si presenta come una anonima condizione di equilibrio, ossia
come una giustificazione puramente tecnica alla moderazione salariale che viene
depurata da qualsiasi riferimento alla configurazione capitalistica del sistema
economico e al carattere irriducibilmente antagonistico di essa. Sulla base di questo
costrutto teorico, il limite salariale al quale pure Tarantelli faceva riferimento si
presenta come un vincolo di compatibilit politicamente neutrale e quindi
apparentemente inesorabile.
Il richiamo a quel presunto vincolo, si badi, di fatto predetermina lintera
soluzione del sistema. Pensiamo ad esempio allidea di Tarantelli, riportata nellarticolo
citato, secondo cui il salario potrebbe comunque esser considerato una variabile
indipendente, purch tuttavia lo si veda non come costo del lavoro erogato dallimpresa
52
ma, pi in generale, come reddito disponibile al netto delle imposte e al lordo dei
trasferimenti e dei consumi e investimenti pubblici. Il problema di questa affermazione
che, se si considera il saggio di profitto dato dal suddetto vincolo delle condizioni di
equilibrio, allora risulta determinata anche la quota di prodotto che pu essere assorbita
dalla spesa sociale dello stato. Inoltre, considerato che il suddetto saggio di profitto di
equilibrio costituisce necessariamente un netto, nemmeno la tassazione potrebbe
fungere da strumento redistributivo tra le classi. La conseguenza che il riferimento di
Tarantelli al salario quale variabile indipendente, se messo nellangusto spazio teorico
da egli stesso creato, si riduce ad una sconfortante esortazione a finanziare la spesa
pubblica destinata ai lavoratori con quote di prodotto prelevate dagli stessi lavoratori.
E bene ricordare che il vincolo al quale Tarantelli e altri sottoponevano il salario in
realt basato su condizioni alquanto discutibili, come ad esempio lidea che il grado di
utilizzo delle attrezzature produttive non presenti deviazioni significative da un ipotetico
livello normale o che il rapporto tra spesa autonoma e reddito rimanga invariato nel
tempo. Ci sta ad indicare che proprio sul versante del conflitto distributivo la per altri
versi illuminante - analisi di Tarantelli era fondata su presupposti logico-politici
restrittivi e ampiamente contestabili. Il che, guarda caso, potrebbe dirsi anche della
politica dei redditi, che in tutti i modi si sta tentando, oggi come ieri, di far digerire ai
lavoratori (27 maggio 2005).
Da domani e per due giorni lUniversit degli studi del Sannio di Benevento sar sede di
un convegno internazionale in onore di Augusto Graziani intitolato La teoria
monetaria della produzione: tradizioni e prospettive (gli atti del convegno sono stati
pubblicati nel volume a cura di G. Fontana e R. Realfonzo, The Monetary Theory of
Production. Tradition and Perspectives, Palgrave Macmillan 2005).
Nato a Napoli nel 1933, economista, gi senatore e membro dellAccademia nazionale
dei Lincei, Graziani ha acquisito una posizione di rilievo allinterno della comunit
scientifica internazionale per loriginalit e la vastit delle sue ricerche, dagli studi dei
primi anni 60 dedicati ai problemi del Mezzogiorno e del relativo sviluppo dualistico
italiano, alle interpretazioni definite conflittualiste della crisi e della ristrutturazione
degli anni 60 e 70, fino a giungere ai pi recenti contributi degli anni 80 e 90 volti
alla costruzione di uno schema di teoria monetaria della produzione dichiaratamente
alternativo allimpostazione neoclassica dominante (si veda in proposito il suo recente
The monetary theory of production, Cambridge University Press 2003). Tale schema
risulta epistemologicamente fondato su una suddivisione della collettivit in gruppi
sociali ben definiti, distinguibili essenzialmente in base alla possibilit o meno di
accedere al credito bancario. In tal senso appaiono evidenti i legami tra lelaborazione
di questo schema e il convincimento, pi volte espresso da Graziani, secondo cui se
ledificio neoclassico va respinto, esso va discusso nei suoi assunti iniziali, e cio
proprio nel momento in cui immagina che il capitalismo sia una societ senza classi,
piuttosto che esser giudicato nei soli termini della sua coerenza interna. Una
impostazione, questa, che a unattenta disamina potrebbe forse rivelare molte pi
affinit che divergenze con laltro grande filone di critica della teoria neoclassica
53
dominante: quello del surplus, o quantomeno con le interpretazioni dello stesso risalenti
al famoso saggio Sullideologia di Maurice Dobb.
Il terreno della ricerca non tuttavia lunico sul quale Graziani si cimentato.
Ad esso si affianca quello, non meno congeniale, della didattica. Graziani, infatti,
autore di due ben noti manuali di teoria economica, espressamente strutturati in modo
da sollecitare il lettore a un continuo, serrato raffronto critico tra la teoria neoclassica e
le teorie ad essa concorrenti. Tali manuali vengono oggi riconosciuti da vaste schiere di
studenti e di ricercatori quali straordinari esempi di chiarezza espositiva e di rigore
analitico, e soprattutto quali preziosi antidoti al processo di omologazione culturale che
nellultimo ventennio sembra aver guidato gli sviluppi della teoria economica e delle
sue applicazioni in campo politico.
Il grande pubblico, tuttavia, tender probabilmente ad associare il nome di
Graziani alla sua intensa attivit di commentatore delle pi scottanti e intricate vicende
della politica economica nazionale. Emblematiche ed attualissime risultano, al riguardo,
le pungenti critiche che egli rivolse alla pretesa dei governi degli anni 80 di spingere
lindustria italiana al potenziamento tecnologico attraverso una spregiudicata politica
del cambio forte. Come Graziani ebbe ad osservare, tale politica doveva per forza di
cose basarsi sul presupposto di lasciar correre linflazione interna a tassi superiori a
quelli europei. Se cos non fosse stato, infatti, il cambio forte non avrebbe rappresentato
una frusta per gli imprenditori italiani, e non li avrebbe quindi indotti a ristrutturare e ad
adottare il pugno di ferro con i sindacati. La lira forte e il lassismo nei confronti
dellinflazione interna contribuivano daltro canto ad alimentare il deficit commerciale
italiano, e spingevano quindi i governi a cercare un rimedio nellincremento dei tassi
dinteresse e nella conseguente importazione di capitali dallestero. Una politica che pi
volte Graziani consider fallimentare: una sorta di gioco di Ponzi che induceva le
autorit italiane a ripagare i debiti con altri debiti, e che ben presto si sarebbe rivelato
disastroso.
La crisi valutaria del 1992 rappresent lesito finale della crescente esposizione
debitoria verso lestero. Quella crisi, come noto, ricadde praticamente tutta sulle spalle
dei lavoratori. Graziani fece notare, in proposito, come la Banca dItalia avesse saputo
rispettare lordine di scendere in trincea e di sacrificare le riserve fino allultima
goccia in difesa della lira, accettando di assecondare la svalutazione solo dopo che il
governo ebbe ottenuto dai sindacati il ben noto, durissimo accordo sul costo del lavoro.
Lobiettivo era chiaro: prima di far cadere la lira sotto i colpi della speculazione le
autorit vollero essere ben sicure che quel tanto di inflazione che seguir alla
svalutazione trovi i sindacati totalmente inermi e privi di possibilit di reazione. Un
esempio tra i tanti, questo, della esigenza di favorire nuovamente lo sviluppo di una
teoria del capitalismo che non tenga pi nellombra, ma al contrario espliciti con
chiarezza, le prerogative e i vincoli delle diverse classi sociali (4 dicembre 2003).
spero che riconoscerai qualcuno dei tuoi insegnamenti. Cos scriveva Ezio Tarantelli in
una lettera al suo maestro Franco Modigliani, datata luglio 1983. Poche righe accorate,
e in un certo senso premonitrici di una delle pi tragiche e feroci pagine della storia
repubblicana: appena venti mesi dopo, infatti, Tarantelli sarebbe stato assassinato dalle
Brigate Rosse.
Il passo citato tratto dal bel libro a cura di Pier Francesco Asso: Franco
Modigliani. Limpegno civile di un economista, una raccolta di lettere private e di scritti
in buona parte inediti appena pubblicata in edizione limitata dalla Fondazione Monte dei
Paschi di Siena (e tra poco anche in libreria per i tipi di Protagon Editori). Il volume,
focalizzato sullattivit di Modigliani quale influente commentatore degli avvenimenti
politico-economici italiani, consente di esaminare le alterne fortune e vicissitudini
nazionali sotto una lente per molti aspetti inconsueta. Le riflessioni delleconomista
italo-americano, scomparso nel 2003, emergono infatti non soltanto dai numerosi
editoriali sulla situazione economica dellItalia, ma anche da una serie di intensi e
talvolta persino intimi scambi epistolari con alcuni tra i pi autorevoli protagonisti della
scena pubblica: Salvemini, Baffi, Andreatta, Fazio, Padoa-Schioppa e molti altri. Le
lettere rivelano spesso le inquietudini di personaggi i cui vissuti privati arriveranno pi
volte a intrecciarsi, talvolta in modo drammatico, con i fatti della storia. Emblematica in
questo senso appare la partecipazione intellettuale ed emotiva di Modigliani al travaglio
di Paolo Baffi durante laggressione giudiziaria ai vertici di Bankitalia, cos come le
riflessioni di Modigliani sulla opportunit di rinviare i suoi consueti viaggi in Italia nelle
fasi pi acute del terrorismo. Va ricordato infatti che fin dai tempi della sua critica
allaccordo del 1975 sul punto unico di contingenza e prima ancora del suo allievo
Tarantelli, egli stesso era stato individuato come un possibile bersaglio dei gruppi
eversivi. Altrettanto significativo appare poi quello che il curatore del volume definisce
nel suo saggio introduttivo il lungo silenzio di Modigliani: una fase in cui i massimi
riconoscimenti internazionali derivanti dalla conquista del Nobel nel 1985 si
verificheranno in concomitanza con una sofferta riduzione degli impegni e delle
collaborazioni in Italia, probabilmente indotta dallintensificarsi degli attentati.
Ma soprattutto sul piano dellanalisi politica che la lettura del volume risulta di
estremo interesse, sia per chi abbia nel corso degli anni condiviso la visione e le relative
proposte di Modigliani, sia e forse soprattutto per chi le abbia criticate e osteggiate. Le
ragioni di questo interesse vertono essenzialmente sul carattere ambivalente del pensiero
di Modigliani, sempre a met strada tra un anti-conflittualismo a tratti persino arcigno e
un riformismo di stampo keynesiano che toccava, in alcune circostanze, punte di
sorprendente radicalit. Questa doppia matrice politico-culturale ha del resto sempre
trovato un raffinato sostegno nellanalisi teorica di Modigliani, quella sintesi
neoclassica tesa allassorbimento delleresia keynesiana nellalveo del pensiero
ortodosso. In particolare, grande importanza in questa cornice teorica veniva assegnata
al rapporto tra quantit di moneta e livello del salario monetario. Questultimo, per
Modigliani, determinava in modo sostanzialmente univoco il livello generale dei prezzi,
data lipotesi di un mark-up (ossia un margine) fisso sul costo del lavoro o addirittura
crescente al crescere della produzione. Il rapporto tra moneta e salario indicava perci la
quantit di moneta espressa in termini di potere dacquisto, una grandezza che per
leconomista del MIT andava sempre collocata a livelli tali da garantire un andamento
soddisfacente della domanda effettiva, e quindi anche della produzione e
delloccupazione. Ecco dunque spiegata la fortissima avversione di Modigliani nei
confronti prima della Bundesbank e poi della nascitura Banca centrale europea,
55
Il flame degli anni 70 tuttavia dur poco. Le critiche marxiste e keynesiane alla
sintesi, per quanto logicamente fondate, non riuscirono ad imporsi nel dibattito
teorico-politico e vennero ben presto messe ai margini. Basti notare, a questo riguardo,
che lipotesi di un mark-up dato trova ancora oggi largo seguito tra gli economisti del
mainstream neoclassico, e si pone addirittura alla base del manuale di macroeconomia
di Olivier Blanchard, uno dei pi venduti al mondo. Si pu con ci ritenere che nel
corso del tempo il pensiero di Modigliani abbia acquisito un tale consenso da costituire
oggi una indiscussa ortodossia? La risposta negativa. E questo non tanto per le mai
sopite critiche di parte marxista, quanto piuttosto per una certa distanza che sembra
essersi pian piano formata allinterno stesso del mainstream, tra limpianto concettuale
del maestro e le linee di indirizzo teorico-politico dei successori, inclusi alcuni dei suoi
ex allievi e seguaci. Questi ultimi sembrano infatti aver compiuto una sorta di
scrematura del pensiero delleconomista del MIT, aderendo in pieno al suo intransigente
anti-conflittualismo salariale, ma scartando la sua visione keynesiana del bilancio
pubblico. Un esempio in tal senso offerto ancora una volta da uno scambio epistolare:
quello del 1993 tra Modigliani e Padoa Schioppa, pubblicato anchesso nel volume a
cura di Asso e avente per oggetto la situazione del bilancio pubblico italiano.
Modigliani e Padoa Schioppa si trovarono in disaccordo in merito alle tremende strette
di bilancio di quegli anni, considerate letteralmente assurde dal primo e necessarie dal
secondo. Ma soprattutto essi si divisero in merito alle determinanti degli elevati tassi
dinteresse dellepoca. Per Modigliani, i tassi elevati dipendevano essenzialmente dalla
marcata inflazione interna, dal deficit dei conti esteri e dal conseguente rischio di
cambio; per Padoa Schioppa, invece, il problema verteva sul paventato pericolo di una
crisi fiscale dello Stato. Ebbene, per quanto le analisi teoriche e gli stessi test statistici
sulla sensibilit dei tassi dinteresse ai conti esteri e ai conti pubblici abbiano
solitamente dato ragione a Modigliani, bisogna ammettere che oggi la vulgata in materia
risulta pressoch dominata da una visione alla Padoa Schioppa. Con la conseguenza che
oggi in Italia quasi tutti, anche a sinistra, tengono gli occhi fissi sui livelli del deficit e
del debito pubblico, preoccupati magari di verificare che essi rientrino nei famigerati
limiti di Maastricht (dei quali Modigliani non smise mai di denunciare la totale
inconsistenza analitica). Si tratta di un atteggiamento infausto, del modo migliore per
lasciarsi sorprendere dagli eventi: infatti, se proprio una crisi dovesse sopraggiungere,
con buona probabilit essa ci piomberebbe addosso a causa non tanto del debito
pubblico quanto soprattutto del deficit estero. A differenza di molti suoi successori, di
questo Modigliani era ben consapevole. Restano invece forti dubbi sulla reale efficacia
della compressione salariale, che egli consider sempre lo strumento decisivo per
mettere sotto controllo linflazione e i conti esteri. I lavoratori italiani hanno infatti
lungamente seguito la via dei sacrifici indicata dal padre nobile della moderazione
salariale. Ma oggi, pur con retribuzioni tra le pi basse dEuropa, la tendenza del paese
al deficit estero rimane strutturale.
Sia nella versione del maestro che in quella dei seguaci, dunque, alla prova dei
fatti il mainstream ha rivelato le sue crepe. Eppure, come per inerzia, lindirizzo
strategico del paese rimasto quello di sempre, con alla base lo schiacciamento dei
salari, magari attraverso lo sfaldamento del contratto nazionale e la ulteriore
precarizzazione del lavoro. C modo di uscire da un tale, angoscioso deja vu?
Tecnicamente possibile. Ma la tecnica, da sola, non basta mai (9 dicembre 2007).
57
Franco Modigliani, classe 1918, premio Nobel per l'economia nel 1985 per le sue
analisi pionieristiche sul risparmio e sui mercati finanziari, morto ieri in
Massachusetts, dove da anni viveva e insegnava. La produzione scientifica e divulgativa
di Modigliani vastissima, e ricopre gran parte del dibattito di teoria e politica
economica del Novecento. Modigliani divenne noto alla cittadella accademica per i suoi
fondamentali contributi alla formulazione della cosiddetta sintesi neoclassica, una
versione ortodossa e moderata del contributo di Keynes. Dall'economista inglese egli
trasse un fermo convincimento anti-liberista, quello secondo cui il mercato non pu
mai esser lasciato a se stesso, e la politica economica lo strumento indispensabile per
il conseguimento dell'obiettivo prioritario della piena occupazione. Per questo motivo,
egli ha spesso e volentieri attaccato la Banca centrale europea e la sua politica
restrittiva, giungendo addirittura a considerarla il vero nemico dell'euro e degli
europei, e invocando sempre una radicale riforma in senso keynesiano del Trattato
dell'Unione.
Il pubblico italiano tuttavia ricorder Modigliani soprattutto per i numerosi
interventi nel campo della politica economica nazionale, a partire da quelli degli anni
`60 e '70 scritti in collaborazione con Giorgio La Malfa, Ezio Tarantelli e Tommaso
Padoa Schioppa. Bench nato in Italia e legatissimo al suo paese d'origine, nei confronti
della vita politica e sindacale nostrana Modigliani rivelava l'insofferenza tipica degli
economisti allevati nelle torri d'avorio americane. Egli curiosamente definiva gli
scioperi irrazionali, e spesso dichiar che le battaglie dei rappresentanti dei lavoratori
fossero controproducenti e autolesionistiche. Le contestazioni da parte degli esponenti
del pensiero critico furono numerose e accurate, ma egli non si scost mai da tali
controverse posizioni. Al conflitto Modigliani non smise di preferire nettamente la pax
sociale ottenuta tramite la politica dei redditi, e oper sempre a sostegno dei governi che
in Italia e nel mondo decidevano di adottarla. Inoltre, dal punto di vista della disciplina
del mercato del lavoro Modigliani fu un convinto fautore della flessibilit,
distanziandosi in ci dal tradizionale insegnamento keynesiano. Negli anni `90 egli
difese il pacchetto Treu, ed in seguito giunse persino a condividere il tentativo, ad opera
del governo di centro-destra, di introdurre deroghe all'articolo 18 dello Statuto dei
lavoratori. Nonostante la sua fede nelle virt della flessibilit del lavoro, Modigliani non
tuttavia mai riuscito a digerire l'attuale governo italiano. Persino nell'ultima intervista,
pubblicata ieri su Repubblica nel giorno stesso della morte, Modigliani non ha
risparmiato critiche feroci nei confronti di Silvio Berlusconi. Di origine ebraica,
costretto ad emigrare nel 1939 negli Stati Uniti proprio a causa delle persecuzioni
fasciste, Modigliani non ha mai tollerato le aperture di Berlusconi su Mussolini e sul
Ventennio. Lapidario, in proposito, il suo ultimo intervento: con i suoi show questo
premier sta disonorando il paese (26 settembre 2003).
Liberati del burocrate e confida nel mercato, questo era il motto che Rudi
Dornbusch amava spesso ripetere. Nato in Germania ma cresciuto a Chicago e in
58
altrove sono stati sedotti dalla dottrina del mercato regolamentato. Eppure questo era il
convincimento del gigante John Kenneth Galbraith, morto allet di 97 anni a
Cambridge, Massachusetts. Esponente di punta dellistituzionalismo americano,
politicamente un liberal alle soglie del socialismo, Galbraith non mai stato tenero con i
pasdaran del liberismo temperato dalle regolamentazioni. Ben pochi tra i sostenitori
delle cosiddette autorit di garanzia della concorrenza sarebbero dunque scampati alla
sua critica, sempre elegantissima e spietata. E la ragione che in fondo Galbraith
proprio non credeva nel mercato, essenzialmente per due ordini di motivi: la profonda,
strutturale irrazionalit dello stesso, e la tendenza a privilegiare sistematicamente i
soggetti in posizione di dominio. Si potrebbe obiettare che se un sistema tutela i pi
forti non si pu dire che almeno dal loro punto di vista non sia razionale. Ma la
questione proprio questa. La critica di Galbraith era infatti rivolta alla versione
apologetica del concetto di razionalit, quella secondo cui lazione della concorrenza sul
libero mercato avrebbe condotto il sistema economico lungo un sentiero di sviluppo
equilibrato e diffuso, in grado di assicurare il massimo benessere per tutti e non solo per
pochi. Unidea, questa, alla quale i suoi colleghi di Harvard e di Princeton dedicavano
lintera loro carriera accademica, e che Galbraith si divertiva invece a smontare pezzo
per pezzo, con laiuto del realismo storico molto pi che della logica formale.
In tema di irrazionalit del mercato, una delle pi efficaci massime di Galbraith
contenuta non in un saggio ma in un suo breve, godibilissimo romanzo: Il professore
di Harvard (A Tenured Professor, 1990), dove si legge che lirrazionale reale. Su
questa indovinata parafrasi hegeliana leconomista di origine canadese aveva del resto
gi lungamente meditato, come dimostra una delle sue opere pi significative: Il grande
crollo (The Great Crash, 1955), dedicato alla crisi degli anni 30. In esso Galbraith
svel con dovizia di particolari la meccanica profonda del mercato borsistico, la
presenza sistematica e squilibrante, allinterno dello stesso, di pastori che fanno i
prezzi e di greggi che li subiscono, ma soprattutto i rischi di crisi cumulativa impliciti
nel meccanismo della leva finanziaria, guarda caso adoperato oggi ben pi di allora. Il
libro oltretutto ricco di aneddoti istruttivi, come quello dedicato a Charles Ponzi, un
affarista di origine italiana inventore della famosa catena omonima. Questa consiste
nellattirare masse di incauti risparmiatori promettendo loro remunerazioni
stratosferiche, che verranno poi effettivamente erogate adoperando i risparmi
provenienti dalle successive ondate di investitori. Il sistema si regge quindi su un ciclo
monetario del tutto virtuale, senza alcun bisogno di finanziare investimenti realmente
produttivi. Basti pensare che Ponzi attirava la sua clientela sostenendo di vendere titoli
immobiliari di una citt della Florida definita in piena espansione, ma che in realt
non era altro che un paludoso acquitrino. Un simile meccanismo ovviamente tiene
finch lafflusso di risparmiatori attirati dalle facili promesse del Ponzi di turno eccede
il numero dei vecchi clienti i cui titoli sono venuti in scadenza, e che vanno quindi
ripagati. Labilit del mazziere sta quindi nel prenotare un volo per le Isole Vergini
prima che il suo castello di carta gli crolli addosso. Ponzi evidentemente dovette avere
un attimo di esitazione visto che fin i suoi giorni in galera. Ma la procedura da allora si
fortemente affinata, e di catene del genere si scoprono versioni sempre pi sofisticate
e inquietanti.
Il mercato dunque innanzitutto un luogo di esercizio del potere: quello di
sopraffare il prossimo attraverso un migliore controllo dellinformazione, delle relazioni
sociali, persino della psiche degli individui. Operando nel solco della migliore
tradizione istituzionalista, Galbraith si in tal senso lungamente dedicato ai meccanismi
62
Alla base delle dichiarazioni contro la libert di mercato c quasi sempre unostilit di
fondo nei confronti della libert in quanto tale. Era questo uno degli aforismi con i
63
quali Milton Friedman amava presentarsi al grande pubblico, nella veste di nemico
giurato dei comunisti e pi in generale di tutti i sostenitori, pi o meno accaniti,
dellintervento pubblico nelleconomia.
Friedman morto a San Francisco, allet di 94 anni. Indiscusso gigante del
monetarismo e premio Nobel per leconomia nel 1976, Friedman potr forse essere
ricordato come il massimo rappresentante della contraddizione insita nel concetto di
libert in regime capitalistico. Egli fu infatti strenuo difensore non solo delle classiche
libert dimpresa ma anche dei diritti civili. Basti pensare che non ebbe mai alcuna
remora nel difendere, anche di fronte allAmerica pi bigotta e reazionaria, la
legalizzazione delle droghe leggere e pesanti e al limite il pieno diritto di uccidersi
attraverso di esse. Ma al tempo stesso Friedman fu pure il demiurgo economico della
sanguinaria dittatura del Cile di Pinochet. Nel 1975, due anni dopo il feroce colpo di
Stato che destitu Alliende e che avrebbe aperto una delle pagine pi oscure della Storia
del Novecento, Friedman accett di incontrare il dittatore. In quel colloquio vennero
gettate le basi per un gemellaggio tra lUniversit di Chicago, gi allora tempio del
monetarismo, e lUniversit Cattolica di Santiago del Cile. Obiettivo dellintesa:
formare una nuova generazione di economisti e di politici cileni, di comprovata fedelt
sia al liberismo che al regime. Giovani e arrembanti, dopo il preliminare
indottrinamento friedmanita i cosiddetti Chicago boys avrebbero assunto importanti
cariche nel governo Pinochet, al fine di sottoporre leconomia cilena ad una delle pi
terribili purghe liberiste che si ricordino: abolizione dei minimi salariali e dei diritti
sindacali, rigido controllo dellofferta di moneta, deregolamentazioni, privatizzazioni e
svendite di capitale pubblico nazionale a favore di imprese statunitensi, il tutto
conseguito con una rapidit senza precedenti grazie alla paralisi del popolo cileno,
totalmente soggiogato da una terrificante dittatura.
Friedman arriv a definire il feroce esperimento cileno come un vero e proprio
miracolo. Fu la goccia, e anche i colleghi a lui culturalmente pi vicini cercarono di
tenersi a distanza da quella sconcertante presa di posizione. Lonta dellepisodio tuttavia
non lo perseguit troppo a lungo. Appena pochi anni dopo il governatore della Federal
Reserve, Alan Greenspan, non ebbe alcuna esitazione nel definire pubblicamente
Friedman il mito indiscusso della scienza economica contemporanea. Un tributo che,
provenendo dal pi importante banchiere centrale del mondo, stato da molti
interpretato come un implicito ringraziamento. Dopotutto il monetarismo di Friedman
ha posto le banche centrali in una posizione invidiabile. E pur vero infatti che proprio
alla irrazionale decisione dei banchieri centrali di ridurre la massa monetaria reale egli
attribu la colpa gravissima della Grande Crisi. Ma altrettanto vero che con
lancoraggio dei suoi modelli al cosiddetto equilibrio naturale, Friedman ha liberato
lautorit monetaria dalla responsabilit di perseguire gli obiettivi politici della piena
occupazione e di una pi equa distribuzione dei redditi. Lidea delleconomista di
Chicago che nel lungo periodo il sistema di mercato tende spontaneamente verso i
livelli naturali della disoccupazione e della distribuzione: questi livelli sono
determinati dalle libere scelte dei singoli individui, per cui le autorit di politica
economica non possono illudersi di modificarli semplicemente stampando banconote.
Anzi, una volta preso atto dellequilibrio naturale, sarebbe bene che lautorit
monetaria si impegnasse a fare lunica cosa che la dottrina di Friedman le chiede:
provvedere al ferreo controllo dellinflazione, attraverso una crescita della liquidit in
linea con la crescita naturale della produzione.
64
i deboli nella feroce contesa tra capitali europei. Limportanza delle aspettative risulta
quindi nuovamente ridimensionata. Mentre lanalisi dei rapporti di forza, in particolare
dei rapporti di forza tra capitali nazionali, torna alla ribalta.
Nel 2011, prima che la malattia lo bloccasse, Spaventa onor qualcuno dei
dieci piccoli indiani fuoriusciti dalla riserva di un dialogo serrato sulla questione.
Riconobbe che la verifica dei fatti dava sostegno allinterpretazione alternativa.
Convenne che se la moneta unica a rischio, lo anche il mercato unico europeo (8
gennaio 2013).
necessario, della famiglia borghese. Con l'avvento della rivoluzione bolscevica, infine,
vennero posti nuovi interrogativi: quale sarebbe dovuta essere la concezione dell'amore
tipica della societ socialista? Stupefacente fu la risposta di Kollontaj: occorreva un
amore da compagni, liberato dai vincoli del matrimonio borghese, un amore non pi
esclusivo che proprio per il suo carattere diffuso e multiforme avrebbe contribuito al
rafforzamento dei sentimenti di solidariet collettiva e di coesione sociale: lamore-
solidariet - scrive Kollontaj - avr un ruolo motore analogo a quello della concorrenza
e dellamor proprio nella societ borghese.
In effetti, allindomani della rivoluzione le nuove norme sul divorzio, sulle
unioni di fatto, sulla parificazione dei figli nati fuori dal matrimonio, sulla soppressione
della potest maritale e sullaborto suscitarono grandi speranze di emancipazione
sociale, di liberazione femminile e di trasformazione delle relazioni affettive. Ben presto
tuttavia ci si rese conto che le cose non sarebbero andate come Kollontaj aveva
preannunciato. In pochi anni, infatti, la repubblica sovietica torn sui propri passi,
arrivando sotto Stalin a ripristinare gli antichi precetti: dal divieto di aborto, alla
criminalizzazione della libert dei costumi, alla centralit della famiglia tradizionale.
Come spiegare un simile regresso? Luigi Cavallaro, nella sua bella nota introduttiva al
libro, ribalta i nessi causali e offre una prima traccia per provare a rispondere. La sua
idea che, ieri come oggi, lestensione dei diritti civili e le relative attese di
emancipazione dei costumi non possono concretizzarsi se non vengono affiancate da un
contemporaneo accrescimento dei diritti sociali, e soprattutto da una politica di
socializzazione del lavoro di riproduzione e di cura, dei bambini e degli anziani. I
bolscevichi non riuscirono a tenere assieme i due processi di trasformazione, civile e
sociale. Cos la donna venne ben presto ricacciata nel focolare domestico, e la
rivoluzione sessuale e degli affetti invocata da Kollontaj fu relegata al rango di
improponibile utopia.
Debordante nello stile, iperbolico nei propositi politici, non sempre convincente
sul piano analitico, il libretto di Kollontaj pu essere tuttavia annoverato tra le pi
interessanti versioni divulgative della celebre lezione materialista contenuta nella
Origine della famiglia di Friedrich Engels. Si tratta come noto di un filone del
marxismo teorico che ha goduto di alterne fortune, essendo passato pi volte nel corso
del Novecento dal pieno successo al pi completo oblio. Oggi in effetti assistiamo a un
rinnovato interesse verso lanalisi strutturale della famiglia, in gran parte dettato dalla
sua crisi e dalle sue profonde trasformazioni. Persino un influente tecnocrate del calibro
di Jacques Attali ha dedicato al futuro dellorganizzazione familiare e delle relazioni
affettive numerose riflessioni, intrecciate a suggestive premonizioni di ordine
economico e sociale. Attali annuncia la fine della famiglia tradizionale e la nascita di
nuovi e ben pi complessi sistemi di relazioni, e i dati sui divorzi e sulla complicazione
dei rapporti interni alle cosiddette nuove famiglie sembrano dargli qualche ragione.
Egli tuttavia commette lerrore di trascurare il fatto che i mutamenti nellorganizzazione
familiare risentono dei processi di riproduzione materiale delle esistenze. E probabile
allora una tematica cos complessa possa essere correttamente affrontata solo grazie al
recupero della traccia materialista lasciata da Engels, e in seguito sviluppata da
Kollontaj ed altri. Del resto, proprio dalla rinnovata attenzione verso tali contributi
sembra potersi trarre una delle pi promettenti declinazioni del materialismo storico,
legata a Louis Althusser e guarda caso proprio alla estensione logica del concetto di
riproduzione sociale. Dal recupero dei medesimi contributi, infine, si potrebbe anche
ricavare un monito politico per i nostri tempi. Questa infatti unepoca in cui tornano a
68
Leconomista Marcello De Cecco morto lo scorso 3 marzo, a Roma. Nato nel 1939 a
Lanciano, laureatosi in legge a Parma e in economia a Cambridge, ha insegnato in
numerosi atenei italiani ed esteri, tra cui Norwich, Siena, la Normale di Pisa e la Luiss
di Roma. Dotato di simpatia innata, colto e raffinato interprete della storia della moneta
e della finanza, De Cecco conquist uno spazio nella ricerca accademica internazionale
per i suoi contributi alla comprensione del gold standard, il sistema aureo vigente fino
alla prima guerra mondiale. Il suo Money and Empire, pubblicato nel 1974 da Basil
Blackwell, considerato un autorevole esempio di analisi storico-critica delle relazioni
monetarie internazionali. Il libro, basato su una accurata disamina delle fonti
documentali, rivela il radicato scetticismo dellautore verso ogni tentativo di esaminare
le relazioni economiche tra paesi in base a teoremi astratti e decontestualizzati [1].
Alla luce di questa metodologia di ricerca, De Cecco ha avanzato spesso
obiezioni verso la tradizione di pensiero economico sostenitrice dei meccanismi di
aggiustamento automatico, secondo i quali le forze spontanee del mercato dovrebbero
essere in grado di garantire lequilibrio degli scambi commerciali e finanziari tra i
diversi paesi. Per gli esponenti di questa visione, il funzionamento del gold standard era
assicurato dal meccanismo spontaneo secondo cui, per esempio, leventuale eccesso di
importazioni di un paese avrebbe dato luogo a un deflusso doro verso lestero tale da
generare un calo di domanda interna e quindi dei prezzi nazionali, con un conseguente
aumento della competitivit e un riequilibrio tra import ed export. Sia pure rivisto e
aggiornato, questo tipo di meccanismo rappresenta ancora oggi un ineludibile punto di
riferimento per la maggioranza degli economisti accademici e viene talvolta citato nei
rapporti ufficiali delle principali istituzioni monetarie per giustificare politiche di
laissez-faire negli scambi internazionali. Per De Cecco, tuttavia, simili aggiustamenti
spontanei in realt non hanno mai avuto rilevanza concreta. A suo avviso, piuttosto, le
relazioni economiche tra paesi sono strutturate su basi imperialistiche, intrinsecamente
votate allo squilibrio, condizionate dalle scelte politiche e finanziarie dei governi e
dipendenti in ultima istanza dai rapporti di forza tra capitalismi nazionali. In questo
senso, nei suoi lavori De Cecco ha suggerito che il gold standard prebellico pot
sopravvivere solo fino a quando lImpero britannico fu in grado di imporre quello che
potremmo definire un regime di governo coloniale dei flussi finanziari internazionali, in
base al quale lIndia era tenuta ad assorbire i titoli del debito che la Gran Bretagna
emetteva per coprire il proprio disavanzo estero.
69
colpevole e persino stupido, perch in forma blanda esse dovevano rimanere in voga
mentre oggi ci si ritrova a ripristinarle velocemente e in dosi assai maggiori, senza
usufruire dei vantaggi che sarebbero derivati da dosi moderate, e correndo in pieno il
pericolo di precipitare il mondo intero in un nuovo disordine internazionale [5].
Anche in sede politica De Cecco prov di tanto in tanto ad avanzare tesi simili.
Nel mezzo della crisi degli spread, in una riunione presso la sede del PD con lallora
segretario Bersani e il responsabile economico del partito Fassina, con la sua
proverbiale flemma De Cecco dichiar che lipotesi di un moderato protezionismo verso
la Germania in fondo non andava scartata a priori, a condizione che lItalia potesse
delinearla in accordo con la Francia, un paese caratterizzato da strutture produttive per
pi di un verso complementari alle nostre. Ricordo che Bersani rest attonito. I tempi
evidentemente non erano maturi.
Negli ultimi anni della sua vita Marcello De Cecco considerava sempre pi
tangibile il rischio di un rapido riflusso verso forme di ultranazionalismo e di razzismo,
ma lo interpretava come una tremenda eterogenesi dei fini del globalismo
indiscriminato e delleuropeismo acritico che negli anni precedenti avevano
imperversato tra le forze politiche, specie a sinistra. Questo nesso di causa ed effetto
suggerisce uninterpretazione non banale della storia recente delle relazioni
internazionali. Su di esso sarebbe utile provare a riflettere (4 marzo 2016).
[1] Marcello De Cecco, Money and Empire: the International Gold Standard 1890-1914 (Oxford: Basil
Blackwell 1974). Cfr. anche la precedente versione italiana del volume: Economia e finanza
internazionale dal 1890 al 1914 (Bari: Laterza 1971), in seguito riproposta in versione ampliata sotto il
titolo Moneta e impero: il sistema finanziario internazionale dal 1890 al 1914 (Torino: Einaudi 1979).
[2] Cfr. per esempio Marcello De Cecco e Fabrizio Maronta, Il dollaro non teme rivali (Limes. Rivista
italiana di geopolitica, 2/2015).
[3] AA.VV., Lettera degli economisti (Il Sole 24 Ore, 14 giugno 2010; www.letteradeglieconomisti.it).
[4] Marcello De Cecco, Gli economisti italiani e leconomia internazionale nel Novecento (Rivista
italiana degli economisti, 2010/1).
[5] Marcello De Cecco, Ma cos' questa crisi (Roma: Donzelli Editore, 2013).
71
IV
LA POLITICA ECONOMICA DEI NOBEL
per una visione teorica che si pretendeva fondata sui canoni dellindividualismo
metodologico. Non fu un caso dunque che proprio su questa debolezza avrebbe fatto
perno, negli anni 70, la critica di Friedman, di Lucas e degli altri esponenti del
monetarismo e della nuova macroeconomia classica. Per tali fautori di un ritorno al
laissez-faire, se le rigidit non erano razionali allora non potevano sussistere, n quindi
poteva esistere una cosa definibile come teoria keynesiana.
Nel bel mezzo dellonda neoliberista degli anni 80, Akerlof e Stiglitz decisero
di reagire alle critiche anti-keynesiane dei monetaristi. Partendo dalla constatazione che
gli individui non dispongono delle medesime informazioni, essi giunsero a dimostrare
che le rigidit dei salari, dei tassi dinteresse e in generale dei prezzi possono anche
scaturire da comportamenti pienamente razionali. Ad esempio, riguardo al mercato del
credito, Stiglitz sostenne che le banche non conoscono la rischiosit dei progetti
dinvestimento dei loro clienti ma sanno solo che, al crescere del tasso dinteresse
richiesto, la clientela pi affidabile tende a rinunciare al prestito e quindi tra i prenditori
rimarranno soltanto i soggetti a maggiore rischio di fallimento. Per evitare ci, le
banche saranno indotte a mantenere il tasso dinteresse al di sotto del tasso di equilibrio
e a gestire il conseguente eccesso di richieste di prestiti con una politica di razionamento
del credito. In tal modo il mercato non raggiunge il suo pieno equilibrio ma le banche
potranno evitare la perdita dei clienti affidabili e la selezione avversa dei prenditori
peggiori. Riguardo invece al mercato del lavoro, Stiglitz aderisce alla controversa tesi
neoclassica secondo la quale esisterebbe un legame inverso tra salari e occupazione, per
cui un aumento dei primi spingerebbe le imprese a ridurre la seconda. Partendo da
questa visione, Stiglitz ha affermato che in genere le imprese non hanno una conoscenza
perfetta del grado di impegno lavorativo dei propri dipendenti. Ci le induce quindi a
offrire salari pi alti di quelli che garantirebbero la piena occupazione, al fine di
incentivare i lavoratori al massimo sforzo produttivo. La carota del salario elevato e il
bastone della conseguente disoccupazione permetteranno di disciplinare i lavoratori e di
ottenere cos la loro fedelt e il loro massimo impegno. Nelle intenzioni del suo
ideatore, si badi, tale spiegazione costituisce non solo una dimostrazione della
razionalit di un salario rigidamente situato al di sopra del livello corrispondente al
pieno impiego, ma anche una prova del fatto che tale rigidit potrebbe dipendere dalle
imprese e non necessariamente dallazione dei sindacati (come ritengono i monetaristi).
Lidea, secondo Stiglitz, che se anche i disoccupati si offrissero a salari minori degli
occupati, le imprese potrebbero comunque decidere di non assumerli, in base al
convincimento che una retribuzione troppo bassa disincentiva limpegno e spinge i
lavoratori a ridurre limpegno e al limite a imboscarsi.
Non tutti ritengono che Stiglitz e gli altri esponenti della sua scuola
rappresentino i legittimi eredi del lascito keynesiano. Alcuni hanno sostenuto che
lincertezza keynesiana si riferisce alla generale, diffusa impossibilit di prevedere il
futuro di sistemi sociali complessi, e che essa non potr mai essere racchiusa nella pur
ingegnosa trovata di Stiglitz, basata pi semplicemente su una distribuzione non
omogenea delle informazioni. Altri hanno chiesto, provocatoriamente, se Stiglitz
sarebbe monetarista in un mondo privo di asimmetrie informative, ossia se soltanto a
tali asimmetrie egli imputi la fragilit strutturale del modello neoclassico sottostante ai
contributi di Friedman e Lucas. Questa in effetti una domanda pertinente. Come
abbiamo detto, infatti, Stiglitz accetta lidea secondo cui alti salari generano
disoccupazione e quindi di fatto aderisce alla discussa tesi neoclassica di una relazione
inversa tra retribuzioni e assunzioni. Altri ancora hanno fatto notare che in fondo le
73
LAccademia delle scienze di Svezia ha assegnato il Nobel per leconomia 2002 agli
americani Daniel Kahneman e Vernon Smith, per i loro studi nei rispettivi campi
della piscologia cognitiva in ambito economico e dellanalisi sperimentale sul
funzionamento dei mercati. Il successo di Kahneman e Smith riflette il crescente
interesse degli economisti verso la possibilit di verificare la robustezza dei loro modelli
teorici tramite appositi esperimenti di laboratorio. Allorigine di questa nuova economia
sperimentale vi una crescente insoddisfazione verso il tradizionale approccio
deduttivo, secondo il quale la forza della teoria economica non risiederebbe nel grado di
aderenza ai dati empirici ma nella capacit di derivare delle proposizioni logicamente
coerenti da una serie di assiomi iniziali. Da questo approccio, a lungo dominante,
scaturito il modello neoclassico di equilibrio concorrenziale di Arrow e Debreu, un
irrinunciabile riferimento teorico per tutti gli economisti, sia per i sostenitori delle virt
taumaturgiche del libero mercato che per i suoi critici pi severi. I Nobel 2002, tuttavia,
hanno sempre guardato con scetticismo al modello Arrow-Debreu e agli altri maestosi
edifici teorici creati dal filone deduttivista. Vernon Smith, in particolare, considera tali
modelli il prodotto effimero di una teoria che egli definisce ecclesiastica, poich essa
verrebbe accettata o respinta sulla base di autorit, tradizioni e opinioni sulle assunzioni
iniziali, piuttosto che in virt della loro capacit di sopravvivere a rigorose, nonch
replicabili, verifiche empiriche.
Un tipico vizio ecclesiastico della teoria economica dominante risiederebbe ad
esempio nelle ipotesi che sono alla base dellanalisi del comportamento individuale.
Questa analisi si basa infatti sui cosiddetti principi di invarianza, transitivit e
dominanza: secondo tali principi, se un individuo preferisce gli esiti di una scelta A a
quelli di una scelta B e gli esiti di una scelta B a quelli di una scelta C, allora dovr
74
logicamente preferire anche gli esiti di A a quelli di C. Lintera teoria standard del
comportamento irriducibilmente ancorata a tale assunto: i suoi costruttori hanno
sempre saputo che una sua eventuale smentita avrebbe avuto leffetto di un vero e
proprio terremoto sul palinsesto teorico dominante.
Alla fine in effetti il terremoto arrivato, e i lavori di Kahneman possono in un
certo senso esser considerati il sussulto scatenante. Tra la fine degli anni 70 e linizio
degli anni 80 Kahneman realizz numerosi esperimenti di laboratorio basati
sullosservazione di alcuni gruppi di individui selezionati. I test si concentrarono
soprattutto sul comportamento di questi soggetti in situazioni di incertezza. Dagli
esperimenti Kahneman trasse la conclusione che gli esseri umani compiono scelte
fortemente condizionate da errori percettivi, e quindi non in grado di rispettare i principi
base della teoria dominante. Molte cavie, ad esempio, dopo aver dichiarato di
preferire A a B e B a C, manifestavano anche una preferenza verso C rispetto ad A,
agendo cos in totale contrasto con il fondamentale postulato neoclassico di transitivit.
Gli errori rilevati da Kahneman sono stati in seguito adoperati per dare
supporto a unassunzione sul comportamento dei lavoratori che era stata
originariamente avanzata da Keynes nella General Theory, e che stata poi riproposta
dagli economisti della sintesi neoclassica e da alcuni nuovi keynesiani. Lipotesi che,
in un contesto di incertezza, i lavoratori considerano il salario monetario che ricevono in
un dato momento come una sorta di pavimento per eventuali successive
contrattazioni. I salariati sarebbero cio ostili a riduzioni della retribuzione monetaria al
di sotto del pavimento, ritenendole non oneste; al tempo stesso, per, essi
dedicherebbero minore attenzione al salario reale, cio alleffettivo potere dacquisto
delle paghe. Stando a questa ipotesi, dunque, i lavoratori sono troppo concentrati sul
livello del salario monetario e appaiono invece distratti sul suo valore reale. Ecco perch
essi rischiano di subire passivamente lerosione dei loro poteri dacquisto causata
dallinflazione.
In effetti, i dati dellultimo ventennio confermano in modo drammatico le
conclusioni degli economisti sperimentali circa la scarsa reattivit dei lavoratori alla
perdita di valore reale delle loro retribuzioni. Daltro canto, suscita perplessit il
tentativo di fare risalire questo comportamento passivo nei confronti dellinflazione a
meri errori percettivi. Sotto questo aspetto gli economisti sperimentali manifestano un
limite comune ai deduttivisti e agli altri sostenitori dellindividualismo metodologico,
che verte sulla pretesa di spiegare tutti i fenomeni sociali in base a modelli di
comportamento individuale. Di fronte allandamento dei salari e degli altri grandi
aggregati, gli economisti sperimentali condividono con la scuola assiomatica dominante
la scelta di evitare qualsiasi rinvio a interpretazioni alternative e forse politicamente
scomode, come ad esempio quella che verte sui processi di deregolamentazione dei
mercati e di frammentazione del lavoro che si sono verificati in questi anni, e che
hanno conseguentemente provocato un radicale mutamento nei rapporti di forza tra le
classi sociali. Forse allora il problema non verte tanto su fenomeni di distrazione
monetaria dei lavoratori quanto piuttosto sullo stato di soggezione contrattuale in cui
essi si trovano costretti (10 ottobre 2002).
75
Sequenze interminabili di dati statistici da un lato, e lambizione di estrarre da essi una ipotesi
generale sul comportamento umano dallaltro. Un obiettivo tra i pi arditi e controversi, sul
quale tuttavia da tempo la ricerca economica sembra essersi orientata. Per il secondo anno
consecutivo, infatti, il premio Nobel 2003 per leconomia viene assegnato a degli studiosi che si
sono dedicati allimpresa di rafforzare il fragile ponte concettuale tra le eleganti astrazioni della
teoria e la brutale concretezza del dato empirico. Robert Engle della New York University e
Clive Granger della Universit della California hanno conseguito ieri lambito riconoscimento
grazie alla scoperta di nuovi metodi di trattamento di una tipica serie di dati statistici, quelli
caratterizzati da forte volatilit e da andamenti non stazionari. La scoperta ha avuto uneco
molto vasta allinterno della comunit degli economisti, dal momento che quasi tutte le variabili
che sono oggetto dei loro studi - prezzi, salari, interessi, tassi di cambio presentano delle
dinamiche volatili e tuttaltro che stazionarie. Ci significa, per esempio, che se prendiamo una
serie di dati riferita ad esempio ai prezzi delle azioni registrati a Wall Street nel corso del 900,
scopriremo che praticamente impossibile sintetizzare graficamente quella serie attraverso
una semplice linea retta. Esisteranno infatti dei lassi di tempo in cui un mero rettilineo sarebbe
del tutto inadeguato per spiegare i movimenti dei prezzi, a causa delle vistose oscillazioni degli
stessi o di veri e propri salti rispetto ai valori precedenti.
Un tempo, quando si trattava di derivare delle ipotesi sul comportamento umano
dallanalisi dei dati disponibili, gli economisti si affidavano per lappunto alla eroica
semplificazione della retta. Oggi, invece, grazie anche ai contributi di Engle e Granger, gli
economisti dispongono di strumenti di analisi molto pi sofisticati. Tali strumenti sono in grado
di fare a meno di quella semplificazione e appaiono quindi capaci, almeno in linea di principio,
di orientare meglio i ricercatori che dai dati volessero provare a estrapolare conferme o smentite
delle varie teorie. In tal modo i lavori di Engle e Granger sembrano aiutare al superamento di
alcune famigerate contraddizioni tra i momenti dellanalisi teorica e le fasi di applicazione della
ricerca. Prendiamo ad esempio la vecchia teoria di Gustav Cassel sulle parit dei poteri di
acquisto. Secondo questa teoria i tassi di cambio tra due valute riflettono landamento dei prezzi
nei rispettivi paesi. Un paese caratterizzato da elevata inflazione dei prezzi dovrebbe prima o
poi subire un calo nelle vendite delle proprie merci. I residenti esteri smetterebbero infatti di
comprarle e quindi non richiederebbero nemmeno la valuta nazionale necessaria agli acquisti. I
residenti interni, per parte loro, chiederebbero valuta estera per comprare le merci pi a buon
mercato che sono prodotte dagli altri paesi. A lungo andare, dunque, linflazione interna
dovrebbe necessariamente condurre a un deprezzamento della moneta nazionale. Questa teoria
in effetti stata largamente citata da economisti ortodossi e responsabili di governo per
giustificare le cosiddette politiche dei sacrifici, vale a dire le compressioni salariali atte a
impedire linflazione e la conseguente svalutazione. Il problema che per lungo tempo la tesi di
Cassel apparsa in contrasto con numerose serie storiche di dati: tra i vari contro esempi, basti
ricordare che negli anni 70 lo yen si rafforz in modo significativo rispetto al dollaro,
nonostante che linflazione giapponese fosse pi elevata di quella americana. Ebbene, proprio
alcune ricerche ispirate ai contributi originari di Engle e Granger sembrano avere offerto una
chance di salvezza alla vecchia teoria di Cassel. Tali studi mostrano infatti che i contrasti tra i
dati e la teoria non sarebbero altro che il riflesso della influenza perturbatrice di un salto, vale
a dire uno shock coincidente con il crollo del regime di Bretton Woods. Una volta assorbito quel
salto, i dati sarebbero dunque tornati ai loro valori normali e la teoria di Cassel avrebbe
nuovamente ripreso a funzionare.
76
Bench il valore scientifico delle ricerche di Engle e Granger debba considerarsi fuori
discussione, non tutti gli economisti condividono lidea che un mero affinamento nellanalisi dei
dati possa costituire un banco inappellabile di verifica della bont delle teorie. Alcuni hanno
ricordato che per ogni serie di informazioni statistiche esisteranno infinite teorie compatibili con
essa. E i pi scettici hanno aggiunto che se anche una teoria si rivelasse incompatibile con
quelle informazioni, e se ci nonostante per ragioni ideologiche si volesse difenderla a tutti i
costi, allora varr sempre la vecchia massima di Mayer: se voi torturate i dati abbastanza a
lungo, essi alla fine confesseranno. Non occorre tuttavia giungere a un tale disfattismo
epistemologico per riconoscere che la questione molto delicata.. Un approfondimento del
rapporto fra la teoria e i dati resta tuttora condizione necessaria per la elaborazione di una lettura
materiale e oggettiva del mondo che ci circonda. Ma altrettanto vero che dopo lorgia
popperiana degli anni passati oggi quel rapporto viene indagato con maggiore circospezione,
nella consapevolezza che la conformit o meno ai numeri non pu facilmente dar luogo a un
giudizio definitivo sulla teoria esaminata. Almeno altrettanto importanti appaiono infatti i
giudizi sulla coerenza logica e sulla rilevanza storica degli schemi adottati. Pensiamo ad
esempio proprio alla teoria di Cassel. Prima ancora di soffermarsi sulla sua maggiore o minore
aderenza alle serie di dati, sarebbe bene ricordare che essa poggia su fondazioni neoclassiche,
ed quindi anchessa sottoponibile alle durissime accuse di irrilevanza e di incoerenza che gli
esponenti delle scuole di pensiero critico hanno rivolto alla teoria dominante per tutto il corso
del Novecento (9 ottobre 2003).
senso disposti a tutto pur di rendere compatibili teoria e dati. Basti notare che i loro
modelli si fondano su ipotesi tali da rendere la piena occupazione dei lavoratori un
risultato inevitabile. E per celare lo stridente contrasto tra un simile esito teorico e la
disoccupazione di massa americana degli anni 30 o quella persistente europea degli
anni 90, i due economisti arrivano a sostenere che in entrambi i casi si tratt di mera
disoccupazione volontaria, magari causata da un non meglio precisato regresso
tecnologico o al limite dalla scarsa propensione a lavorare che a loro avviso tipicamente
caratterizzerebbe gli europei. E se alla fine, nonostante ipotesi cos vantaggiose, il
divario tra i risultati del modello e i dati osservati dovesse persistere, si potr
efficacemente rimediare con la cosiddetta calibrazione, un sofisticato stratagemma
che nella sostanza arriva a combinare un matrimonio forzato tra la teoria e i dati, a colpi
di rettifiche e continui aggiustamenti dalluna e dallaltra parte.
Labolizione per decreto della disoccupazione conduce poi ad una
ragguardevole serie di implicazioni per la politica economica. Obiettivo chiave di
Kydland e Prescott di eliminare qualsiasi margine di discrezionalit allazione delle
banche centrali. Lintento di togliere legittimazione teorica a qualsiasi tentativo delle
autorit monetarie di reagire a una recessione con misure espansive. A tale scopo i due
economisti affermano che in un mondo di agenti razionali sussiste un problema di
incoerenza temporale nelle decisioni delle autorit politiche. Il concetto viene
solitamente esposto ricorrendo al caso dei dirottatori, un esempio alquanto macabro e
lontano dalle vicende economiche ma che rende piuttosto bene la logica del
ragionamento. Lesempio parte dallidea che, al fine di scoraggiare i dirottamenti aerei,
la maggior parte dei governi segua la regola di non negoziare mai con i dirottatori.
Supponiamo tuttavia che, nonostante la politica annunciata dal governo, avvenga
comunque un dirottamento. In questo caso le autorit potrebbero essere indotte a
negoziare, visto che il prezzo richiesto dai dirottatori difficilmente supererebbe gli
effetti devastanti della perdita di vite umane che si trovano sullaereo. Quindi la miglior
politica sembrerebbe esser questa: annunciare di non esser disposti a negoziare, ma poi
negoziare in caso di effettivo dirottamento. Se a questo punto si trasferisce il
ragionamento in ambito economico, si potrebbe pensare che alle autorit monetarie
convenga un atteggiamento analogo a quello appena descritto. Esse possono cio
annunciare una politica rigorosamente anti-inflazionista. I lavoratori di conseguenza si
attenderanno prezzi bassi, e dunque accetteranno salari monetari bassi. Le autorit
monetarie potrebbero allora approfittare di queste previsioni smentendo gli annunci e
attuando una politica espansiva. I prezzi aumenterebbero in modo imprevisto, e i
lavoratori quindi tarderebbero a reagire. La corsa dei prezzi e il ritardo dei salari
potrebbe indurre le imprese ad aumentare, almeno temporaneamente, loccupazione.
Leffetto sorpresa sembra dunque in grado di provocare benefici reali.
In realt, dicono Kydland e Prescott, lidea che una simile incoerenza temporale tra
annunci e decisioni possa dar luogo a risultati positivi viziata dallipotesi inaccettabile
che gli individui siano passivi, ossia che decidano le loro azioni in base alla sola
dichiarazione dintenti delle autorit e non al loro comportamento effettivo. Ma nei fatti
proprio la tendenza o meno dellautorit a smentirsi che si rivela decisiva, nel senso
che non appena gli annunci del governo dovessero mostrarsi non credibili, i singoli ne
terranno conto e agiranno di conseguenza. Per esempio, i sequestri di aerei da parte dei
dirottatori diventeranno allordine del giorno. E gli stessi lavoratori non reputeranno pi
credibili le promesse anti-inflazioniste del banchiere centrale. Partendo da questo tipo di
esempi, Kydland e Prescott hanno attaccato i vecchi modelli keynesiani e monetaristi di
78
La legge del pendolo sembra valere anche a Stoccolma. Dopo la discussa assegnazione dei
Nobel 2004 per leconomia ai falchi del neo-monetarismo Kydland e Prescott, lAccademia
svedese delle scienze ha deciso questanno di attribuire lambita onorificenza a due giochisti
del disarmo nucleare. Lisraelo-americano Robert J. Aumann, classe 1930, della Hebrew
University di Gerusalemme, e lamericano Thomas C. Schelling, classe 1921, della University
of Maryland, sono stati premiati per avere rafforzato la nostra comprensione del conflitto e
della cooperazione attraverso la teoria dei giochi. Dove per teoria dei giochi si intende lo
studio di quelle situazioni - economiche, politiche, militari - in cui le scelte dei soggetti
coinvolti vengono effettuate in un contesto strategico, vale a dire un ambito in cui le
conseguenze dellazione di ognuno dipendono anche dalle azioni degli altri.
Difficilmente si sarebbero potuti premiare personaggi cos diversi tra loro. Da un lato
Aumann, mite professore, esperto matematico ed uomo di profonda fede religiosa. Dallaltro
lato Schelling, consigliere politico della Casa Bianca ed abilissimo comunicatore. Le loro
ricerche trovano per un fondamentale elemento comune nellinquietudine suscitata dalla guerra
fredda e nella volont di individuare meccanismi in grado di promuovere il disarmo nucleare.
Appena trentenne, Aumann fu rapito dalleloquio di Henry Kissinger, nel corso di una
conferenza in cui il futuro segretario di Stato americano accennava allimpiego della teoria dei
giochi per interpretare le travagliate relazioni diplomatiche dellepoca con lUnione Sovietica.
79
Per Aumann, che fino a quel momento aveva elogiato della matematica la sua assoluta
inutilit pratica, fu una specie di folgorazione rendersi conto che proprio le tecniche di cui si
stava occupando rientrassero tra i tasselli di una partita politica da cui dipendevano i destini di
tutto il genere umano. Da allora Aumann si dedic ad approfondire le ragioni che possono
condurre due o pi contendenti a delle soluzioni di cooperazione anzich di conflitto. In
particolare, il suo apporto fu decisivo per la generalizzazione di quello che in letteratura noto
come Folk Theorem, o teorema popolare. Secondo questo teorema, se un gioco non si basa su
una partita unica ma viene ripetuto nel tempo, allora sotto date condizioni verranno a
crearsi dei meccanismi di credibilit e di reputazione in grado di condurre le parti a dei risultati
di tipo cooperativo. Attraverso questi giochi si potr ad esempio giungere ad una spiegazione
formale del motivo per cui la guerra fredda tra Stati Uniti ed Unione Sovietica non sia mai
sfociata nellapocalisse nucleare. Lidea, in proposito, che ognuno dei contendenti sapeva che
laltro avrebbe cooperato solo se e nella misura in cui il primo avesse fatto altrettanto.
Qualsiasi deviazione dallequilibrio cooperativo da parte di uno dei giocatori avrebbe indotto
laltro a concretizzare la minaccia di premere il grilletto (trigger strategy, in gergo), vale a
dire di lanciare le testate nucleari. E questo spingeva entrambi a perseguire sentieri di tipo non
conflittuale.
Si potrebbe trarre da questi giochi un risultato alquanto banale, e cio che pur
muovendosi in modo del tutto auto-interessato, Kruscev e Kennedy non potevano che giungere
a risolvere pacificamente la crisi dei missili di Cuba. In realt per la struttura stessa dei giochi
pu esser complicata a piacimento, includendo elementi che rendono pi incerta e complessa
lindividuazione delle soluzioni. Un modo per complicare lanalisi, e per tentare di avvicinarla
maggiormente alla concreta prassi politica, viene descritto nellopera di maggiore successo di
Schelling: The Strategy of Conflict (1960). In essa lautore scrive che il potere di vincolare un
avversario pu dipendere dal potere di vincolare s stessi. Ed aggiunge che nella
contrattazione la debolezza pu essere un fattore di forza, la libert pu rivelarsi libert di
capitolare, e rompere i ponti dietro di s pu risultare la giusta strategia per sconfiggere il
nemico. Una dimostrazione immediata di questo concetto contenuta nella stessa minaccia
del grilletto, illustrata in precedenza. Se ad esempio i sovietici avessero sospettato che, una
volta attaccati gli Stati Uniti, questi ultimi non se la sarebbero sentita di rispondere al fuoco, la
tentazione da parte dei primi di lanciare loffensiva sarebbe stata fortissima. Qualcuno ricorder
forse War games, un cult movie adolescenziale degli anni 80. La pellicola iniziava proprio con
un esempio di ritrosia americana nella risposta al fuoco: messi alla prova da un attacco simulato,
gli addetti alle testate venivano colti da una crisi di coscienza e rinunciavano a schiacciare i
pulsanti di lancio dei missili. Il che induceva il Pentagono a provvedere a una totale
automatizzazione del sistema di difesa statunitense. Le considerazioni di Schelling non hanno
per rappresentato solo uno spunto per la fantapolitica hollywoodiana. Esse in un certo senso
sono diventate parte del linguaggio e della stessa azione di governo. Basti notare quanto il
concetto del rompere i ponti dietro di s somigli alla famigerata strategia del pazzo, che si
basava sul continuo e provocatorio sorvolo degli spazi aerei vietnamiti e sovietici da parte di
B52 americani carichi di bombe nucleari. Richard Nixon, con il placet dello stesso Kissinger,
riteneva che con simili pungoli sarebbe prima o poi riuscito a costringere i vietcong a sedersi al
tavolo delle trattative, in una fase delicatissima del conflitto.
Per come alla fine andarono le cose in Vietnam, non si pu dire che le intuizioni di
Schelling e le relative formalizzazioni degli esperti di teoria dei giochi si siano rivelate sempre
infallibili, almeno da un punto di vista predittivo. Del resto, per quanto altamente sofisticate sul
piano matematico, queste applicazioni teoriche suscitano nellanalista politico tradizionale un
80
comprensibile scetticismo. Soltanto una lettura molto naif del mondo potrebbe infatti indurre a
credere che la prassi politica, e quindi pi in generale il corso della storia, possano essere
racchiusi in strutture logiche cos fortemente condizionate da una serie innumerevole di ipotesi
di partenza, ed in grado tra laltro di dar luogo esclusivamente ad analisi di tipo parziale. Non
questa uningenuit di cui possano essere accusati Schelling e Aumann, che in generale hanno
valutato con grande prudenza il rapporto tra i loro modelli e lo svolgersi effettivo degli eventi
storici. Viene per da chiedersi se la strada seguita dai pi recenti sviluppi degli studi sociali, e
avvalorata dallorientamento dellAccademia delle scienze, sia quella pi adeguata alla
comprensione del mondo in cui viviamo. Al di l dei suoi pur rilevanti meriti, infatti, la teoria
dei giochi rimane ingabbiata negli angusti canoni dellindividualismo metodologico. Ci
significa che essa ammette solo agenti che perseguano dati obiettivi secondo un criterio di
gestione razionale e massimamente efficiente delle risorse e delle informazioni. Ma a pensarci
bene nella realt dei fatti simili agenti non esistono. Gli stessi obiettivi sono mutevoli, spesso
interdipendenti, e se di razionalit si pu parlare questa sembra attenere al meccanismo
impersonale di riproduzione dei sistemi di potere molto pi che al comportamento dei singoli
attori sociali. Qualcuno ha efficacemente sintetizzato queste evidenze sostenendo che la storia
pu esser considerata un processo senza soggetto. Un processo di cui molto difficilmente la
pur ingegnosa teoria dei giochi potr cogliere il moto profondo (11 ottobre 2005).
Siete disoccupati? Percepite bassi salari? Ebbene, che non vi venga in mente di
prendervela col banchiere centrale. E questo in fin dei conti il senso politico
dellassegnazione del premio Nobel 2006 per lEconomia allamericano Edmund
Phelps, 73 anni, docente presso la Columbia University. LAccademia svedese delle
Scienze non sembra esser stata scalfita dalle polemiche che fecero seguito
allattribuzione del Nobel 2004 ai neo-monetaristi Kydland e Prescott. La vittoria di
Phelps, infatti, costituisce lennesimo, reiterato tributo allortodossia neoclassica e
monetarista. Assieme a Milton Friedman, leconomista della Columbia offr negli anni
Sessanta un apporto decisivo per la riaffermazione in ambito accademico e politico del
principio ortodosso di neutralit della moneta e della politica economica. Di fatto
Phelps fu il primo a contestare in modo formalmente rigoroso unidea che era stata
avanzata dagli economisti Samuelson e Solow, e che allepoca risultava piuttosto in
voga nei circoli accademici. Si tratta dellidea secondo cui esistebbe un trade-off,
ossia una scelta politica, tra i due mali sociali della disoccupazione e dellinflazione.
Secondo questa visione, se le autorit di politica economica di un paese volessero
ridurre la disoccupazione allora dovrebbero necessariamente effettuare politiche
monetarie e fiscali tese ad espandere la domanda di merci. Questo per significa che
esse dovrebbero anche accettare la conseguenza indesiderata di un innalzamento
dellinflazione. Se invece le autorit volessero abbattere linflazione, si troverebbero
costrette ad imporre politiche restrittive e dovrebbero pertanto tollerare una caduta della
domanda di merci e un aumento dei disoccupati. La scelta della combinazione
ottimale tra disoccupazione e inflazione sarebbe dunque prettamente politica. Un
governo pi attento alle istanze sociali e del lavoro cercher di evitare in primo luogo la
piaga della disoccupazione. Un esecutivo pi sensibile alle richieste dei possessori di
capitale monetario cercher invece di contrastare lerosione delle ricchezze causata
81
Leonid Hurwicz (90 anni, Universit del Minnesota), Eric Maskin (57 anni,
Universit di Princeton) e Roger Myerson (56 anni, Universit di Chicago) sono i
vincitori del premio Nobel 2007 per leconomia. Il primo nato a Mosca, ma tutti
cittadini americani, i tre sono stati insigniti dellonorificenza per aver posto le
fondamenta del mechanism design, vale a dire della teoria che fissa i criteri per la
scelta delle regole del gioco, sia nel campo delle transazioni economiche che in quello
degli accordi politici.
Pur rientrando nei canoni della teoria neoclassica dominante, il mechanism
design un complesso di modelli estremamente articolato, adattabile ad una
molteplicit di situazioni e di obiettivi. Myerson, ad esempio, ha adoperato questa
tecnica allo scopo di evidenziare i rischi per lincolumit dei cittadini americani che
potrebbero scaturire dal ferreo unilateralismo diplomatico dellAmministrazione Bush.
Tuttavia, e al di l delle intenzioni dei suoi ideatori, innegabile che il principale
utilizzo del mechanism design sia stato di tipo apologetico, ossia contro la revanche
interventista di questi anni e a favore delle libert di mercato. Per chiarire questo punto
va ricordato che, stando ai pi recenti sviluppi della teoria neoclassica dominante, il
mercato pu essere considerato il migliore meccanismo organizzativo dei rapporti tra gli
agenti economici soltanto sotto ipotesi molto restrittive: se cio la concorrenza
perfetta, se linformazione risulta pienamente ed equamente distribuita tra le parti e se
non vengono a determinarsi fenomeni che sfuggono alle trattative private, come ad
esempio gli effetti dellinquinamento atmosferico ed altre cosiddette esternalit.
Condizioni cos restrittive hanno evidentemente sollevato forti dubbi in merito alla
capacit della teoria neoclassica di sancire la superiorit del mercato capitalistico
rispetto alla pianificazione e alle altre forme di organizzazione delle relazioni sociali. Il
mechanism design, a detta di alcuni, sale alla ribalta proprio allo scopo di fugare tali
dubbi. Questa nuova teoria, infatti, si propone di mettere a confronto il mercato con altri
criteri di coordinamento dei rapporti sociali: il fine di individuare le regole del gioco
ottimali, vale a dire il meccanismo che sia in grado di assicurare la migliore allocazione
delle risorse pur in presenza di monopoli o di asimmetrie informative tra i vari agenti
economici. E il risultato, guarda caso, che gli antichi convincimenti del mainstream
vengono nella sostanza ristabiliti: sia pure in termini pi problematici che in passato, si
83
Paul Krugman il vincitore del premio Nobel per leconomia 2008, per i suoi
contributi in tema di scambi commerciali e di localizzazioni delle attivit economiche
a livello mondiale. Nato nel 1953 a New York, docente presso la Princeton University,
Krugman gode di larga fama presso il grande pubblico soprattutto per la sua prolifica
attivit divulgativa. Editorialista prima della rivista Slate e oggi del New York Times,
Krugman si caratterizza per uno stile indubbiamente corrosivo ma per delle ricette che
potrebbero in fin dei conti esser considerate di moderato buon senso. In effetti, proprio
per questa sua miscela di aggressivit nei modi e di pacatezza nelle proposte, egli
sembra avere incarnato meglio di ogni altro opinionista la ovattata cultura liberal
americana del nuovo secolo. Krugman infatti non assolutamente un radicale. Sul piano
teorico leconomista ha sostanzialmente difeso il paradigma neoclassico dominante, sia
pure ritoccato in alcuni suoi punti. Sul piano politico, egli stato non solo un impietoso
fustigatore delle amministrazioni repubblicane statunitensi ma anche dei governi
socialisti francesi dei primi anni Ottanta, e si in generale contraddistinto per delle
proposte di limitato interventismo keynesiano (gi tipiche del resto dei suoi mentori del
MIT, Samuelson e Solow).
Ma in che senso Krugman ha contribuito al ritocco e allammodernamento della
teoria neoclassica? Linnovazione cruciale che ha contraddistinto i suoi contributi
riguarda i cosiddetti rendimenti di scala, vale a dire i guadagni di efficienza che si
possono ottenere dallaumento della scala di produzione. Nelle analisi neoclassiche
tradizionali veniva esclusa la possibilit che al crescere della produzione potesse
aumentare la produttivit dei fattori e quindi potessero ridursi i costi di ogni singola
merce. Tuttavia nella realt dei fatti accade spesso che laumento delle dimensioni
dellattivit economica permetta di aumentare lefficienza del processo produttivo. Il
caso di scuola quello di un magazzino il cui costo viene calcolato in base ai metri
quadrati che occupa, ma la cui capacit di carico viene determinata dalla cubatura. Se
dunque il magazzino si ingrandisce la sua capacit aumenter al cubo mentre i costi
cresceranno solo al quadrato, il che evidentemente potr dare luogo a una espansione
dei profitti netti. Ma si pensi anche alla possibilit di organizzare e di mettere in
relazione i lavoratori in modo pi efficiente al crescere delle dimensioni e della
concentrazione dellattivit economica. E questa una caratteristica non solo dei vecchi
regimi tayloristici ma anche dei pi moderni processi basati sul continuo scambio di
esperienze e di informazioni. Entro certi limiti, dunque, il gigantismo delle imprese pu
determinare un abbattimento dei costi e quindi una maggiore competitivit. Partendo da
queste semplici intuizioni Krugman ha saputo costruire dei modelli estremamente chiari
ed eleganti, dedicati soprattutto allanalisi degli scambi commerciali e della
localizzazione internazionale delle imprese; vale a dire, di quella che in gergo stata
talvolta definita leconomia dello spazio. Le conclusioni di questa nuova branca della
teoria neoclassica sono state il pi delle volte di conforto allideologia dellapertura
totale dei mercati e del libero scambio. Ma sono emerse da essa pure delle riflessioni
inquietanti sul possibile sviluppo futuro delle relazioni economiche internazionali. Per
esempio, in base alle sue analisi Krugman arrivato a sostenere che lintegrazione dei
85
allevato al MIT di Boston non si poteva pretendere che sposasse senza indugio una
chiave di lettura che un tempo si sarebbe definita di classe. Capita tuttavia che proprio
dal punto di vista di un interesse specifico, quello del lavoro, si riescano a individuare
alcune delle cause profonde delle tendenze storiche in atto, e quindi anche dello
sconquasso finanziario di questi mesi. Con o senza laiuto di Krugman, dunque, sarebbe
utile approfondire questa specifica interpretazione, materiale e oggettiva, di una
tempesta finanziaria che potrebbe a lungo andare tramutarsi in un vero e proprio tracollo
occupazionale e retributivo (14 ottobre 2008).
Nata nel 1933 a Los Angeles, lamericana Elinor Ostrom dellUniversit dellIndiana
la prima donna ad aver conquistato il premio Nobel per lEconomia [1]. Il
riconoscimento le viene assegnato in coabitazione con il connazionale Oliver
Williamson, nato a Superior nel 1932 e docente presso lUniversit di Berkeley. In
apparenza siamo al cospetto di due studiosi molto lontani tra loro. Williamson un
teorico dellimpresa particolarmente innovativo, che tuttavia rimasto sempre con i
piedi ben piantati nel filone tradizionale neoclassico fondato sulla ipotesi di agenti
economici egoisti e razionali. Ostrom ha seguito invece un itinerario di ricerca atipico,
scandito da pubblicazioni sulla prestigiosa Science e su riviste politologiche pi spesso
che economiche, e costellato da ricerche empiriche tese a evidenziare quei tipici aspetti
comunitari del comportamento umano che smaccatamente travalicano gli angusti
confini ortodossi dellhomo oeconomicus. Tuttavia, come nota lAccademia delle
scienze di Svezia, entrambi gli studiosi hanno fornito contributi decisivi per lanalisi
delle transazioni economiche che si verificano al di fuori del mercato.
Il principale apporto di Ostrom, al riguardo, consiste in una inedita
interpretazione dei meccanismi che governano lo sfruttamento di beni comuni come i
laghi, i pascoli, i boschi, e in generale le risorse naturali condivise. Gli studi passati
erano dominati da una concezione che va sotto il nome di tragedia delle propriet
comuni: per impedire lo sfruttamento indiscriminato e il depauperamento di queste
risorse occorrerebbe necessariamente privatizzarle, oppure al limite bisognerebbe
sottoporle al controllo del governo. Ostrom contesta questo tipo di conclusioni,
ritenendole viziate da una rozza teoria individualista dellazione umana. In effetti i dati
empirici che raccoglie nel corso delle sue ricerche sembrano in varie circostanze darle
ragione: soprattutto nelle aree rurali, situate ai margini dello sviluppo capitalistico, pu
accadere che una gestione comune delle risorse - basata su regole condivise dagli
abitanti del luogo e sedimentate nel tempo - risulti pi efficiente delle gestioni fondate
sulla rigida assegnazione di specifici diritti di propriet e di controllo a favore dei privati
oppure dello Stato. E il caso questo dei terreni della Mongolia coltivati in comune,
decisamente pi produttivi di quelli confinanti della Cina e della Russia, sottoposti a
inefficienti sistemi di gestione prima statale e successivamente privata. Ed anche il
caso dei sistemi di irrigazione del Nepal, la cui efficienza sembra esser crollata dopo
labbandono della gestione in comune da parte degli abitanti, verificatasi a seguito di
massicci interventi di ammodernamento da parte del governo in joint venture con alcuni
finanziatori esteri. Gli esempi di questo tenore riportati da Ostrom e dai suoi
collaboratori sono numerosi. Essi tuttavia non stanno ad indicare che la propriet
comune delle risorse sia sempre preferibile alle gestioni private o statali. Esaminando
87
Sebbene non vi sia unanime consenso sulla loro piena validit empirica [4], gli
studi di Williamson hanno indubbiamente contribuito a una pi accurata comprensione
dei processi di espansione delle imprese, e pi in generale della centralizzazione dei
capitali. Cos come le ricerche di Ostrom hanno senzaltro fornito importanti elementi di
conoscenza per una gestione sostenibile dei beni comuni, e in particolare delle risorse
ambientali. Se tuttavia si guardano tali apporti nellottica di un aggiornato materialismo
storico, non si pu fare a meno di rilevare in essi alcune fragilit di fondo. Riguardo ad
Ostrom, c da dire che fin dallepoca degli studi di Marx sui terribili effetti delle
enclosures, il problema per i materialisti storici non mai stato quello di esaminare i
danni prodotti dalla distruzione delle propriet comuni, ma stato invece di
comprendere quali immani forze riuscissero inesorabilmente a disintegrare le forme
primitive di organizzazione comunitaria delle risorse, del tutto indipendentemente dalle
devastazioni economiche e sociali che quelle stesse forze provocavano. In effetti negli
ultimi tempi Ostrom sembra aver preso coscienza del rischio di una interpretazione per
cos dire conservatrice e nostalgica delle sue analisi, e si quindi impegnata ad
effettuare ricerche sulla gestione dei beni comuni non pi soltanto nei vecchi contesti
rurali e pre-capitalistici, ma anche in settori estremamente avanzati, come ad esempio
quello della produzione di conoscenza. In questo nuovo ambito tuttavia le sue
conclusioni sono per forza di cose divenute pi articolate e controverse. E chiaro infatti
che il campo della conoscenza scientifica e tecnologica attraversato pi di ogni altro
da continue innovazioni che sconvolgono il quadro delle relazioni economiche e sociali,
e che rendono quindi molto improbabile il verificarsi di quei lunghi processi di
sedimentazione delle regole che sono indispensabili per la costituzione dal basso di
forme di gestione comune delle risorse. Ecco perch, contro tutte le apparenze, il
nucleo dellanalisi di Ostrom sferra implicitamente un duro colpo a quei teorici delle
moltitudini che proprio nellambito della produzione di conoscenza vorrebbero
addirittura poter individuare i semi dello sviluppo spontaneo di nuove forme di
comunismo. Riguardo poi alle analisi di Williamson sulle modalit di costituzione e di
sviluppo dellimpresa, suscita molte perplessit lidea che queste siano governate da un
criterio di scelta ottimizzante tra scambio di mercato e gerarchia interna alla struttura
aziendale. In realt sia lo scambio che limpresa ineriscono al medesimo rapporto di
dominio: quello del capitale sul lavoro, che potr poi esprimersi nelluna o nellaltra
forma a seconda delle diverse contingenze e convenienze (non un caso che le
centralizzazioni del capitale avvengano spesso in concomitanza con poderosi processi di
esternalizzazione di alcune parti dellattivit produttiva) [5]. Tali critiche naturalmente
non possono gettare nellombra le importanti novit contenute nelle ricerche dei Nobel
2009 per lEconomia. Ad Ostrom e Williamson va senza dubbio riconosciuto il merito
di aver aperto squarci nel buio oltre la siepe del mercato, che i vecchi teorici
dellequilibrio generale neoclassico non osavano invece mai scavalcare. Bisogna per al
tempo stesso riconoscere che anche questanno rimaniamo alquanto lontani dai tempi in
cui laria di Stoccolma veniva infiammata dal vento della critica della teoria economica.
E questo un dato incoraggiante per una disciplina dalla quale molti si attendevano
nientemeno che una via duscita dalla Grande Crisi? Osiamo francamente dubitare. (13
ottobre 2009).
[1] Dal 1901 al 2009, escludendo i riconoscimenti conferiti a organizzazioni, i premi Nobel sono stati
assegnati a 802 persone, tra le quali soltanto 41 donne (il 5,1%). Il Nobel per la Pace stato assegnato a
12 donne su 97 premiati (il 12,3%). Il Nobel per la Letteratura stato conferito a 12 donne su 106
premiati (l11,3%). Il Nobel per la Medicina stato assegnato a 195 persone, tra cui 10 donne ( il 5,1%).
89
Il Nobel per la Chimica stato attribuito a 4 donne su 156 (il 2,5%). Il Nobel per la Fisica stato
assegnato a 2 donne su 186 premiati (appena l1%). Con la vittoria di Ostrom, il Nobel per lEconomia
assegnato solo a partire dal 1969 - passa da zero donne a una donna su 64 premiati, corrispondente
all1,5%.
[2] Paul Samuelson (1957), Wage and interest: a modern dissection of Marxian economic models,
American Economic Review, 47.
[3] Questa almeno linterpretazione degli indirizzi di politica per la concorrenza di Williamson che ci
viene offerta dai membri dellAccademia delle scienze di Svezia (Economic governance, compiled by
the Economic Sciences Prize Committe of the Royal Swedish Academy of Sciences; scaricabile dal sito
www.nobel.se), e che in effetti scaturisce dalla grande maggioranza dei contributi delleconomista di
Berkeley. Tuttavia, in un commento a caldo sullassegnazione dei Nobel 2009, Robert Solow ha suggerito
una pressoch opposta chiave di lettura della vittoria di Williamson. Solow a sua volta premiato nel
1987 - ha infatti dichiarato che potremmo e dovremmo interpretare il lavoro di Ollie Williamson come
un criterio per esaminare in che modo le grandi banche di investimento operano e come esse ci abbiano
portato a quel che in retrospettiva sembra un comportamento molto stupido e rischioso (intervista
rilasciata a Janina Pfalzer e Rich Miller di www.bloomberg.com). Resta da vedere se Williamson sia o
meno daccordo con questa peculiare interpretazione della sua opera.
[4] Il documento dellAccademia delle scienze di Svezia (cit.) fornisce numerosi riferimenti alle ricerche
che tendono a confermare sul piano empirico le ipotesi di Williamson sulle determinanti dei processi di
espansione e di integrazione verticale delle imprese. Non vi tuttavia alcuna citazione delle pur numerose
verifiche empiriche che sembrano fornire risultati pi controversi, e che aprono dunque la strada ad
interpretazioni teoriche alternative a quella di Williamson. Tra queste, si veda ad esempio Richard Carter
e Geoffrey M. Hodgson (2006),The impact of empirical tests on transaction costs economics on the
debate on the nature of the firm, Strategic Management Journal, 27.
[5] Diversi ordini di critiche di stampo istituzionalista o marxista sono state rivolte a Williamson e pi in
generale agli esponenti della New Institutional Economics. Tra i numerosissimi contributi, segnaliamo qui
Ugo Pagano (2000), Public markets, private orderings and corporate governance, International Review
of Law and Economics, 20, e Antonio Nicita e Ugo Pagano (2001), The evolution of economic diversity,
Routledge, London. Si veda anche Daniel Ankarloo e Giulio Palermo (2004), Anti-Williamson. A
marxian critique of new institutional economics, Cambridge Journal of Economics, 28.
Peter Diamond (nato nel 1940 a New York e docente al MIT di Boston), Dale
Mortensen (nato nel 1939 in Oregon e docente alla Northwestern University) e
Christopher Pissarides (nato a Cipro nel 1938 e professore alla London School), sono
i vincitori del premio Nobel 2010 per lEconomia. Lonorificenza viene ad essi
assegnata per le analisi dei mercati caratterizzati da frizioni nel processo di incontro
tra domanda e offerta, con particolare riguardo alla domanda e allofferta di lavoro.
Mai come questanno le scelte dellAccademia svedese delle Scienze sembrano
intersecarsi con le spinose vicende dellattualit politica. Negli Stati Uniti la notizia
della vittoria di Diamond deve infatti aver suscitato non pochi imbarazzi tra le file del
Partito Repubblicano. Appena poche settimane fa i senatori repubblicani avevano
respinto la proposta della Casa Bianca di nominare leconomista del MIT nel board
della Federal Reserve. Lopposizione a Diamond derivava dal tentativo di impedire una
ulteriore designazione di marca democratica ai vertici della banca centrale statunitense.
Il portavoce repubblicano aveva per tentato di fornire un pi nobile pretesto per il voto
contrario del suo partito sostenendo che Diamond non avesse lesperienza necessaria
per lincarico. In effetti, al di l dei reali propositi, largomentazione non sarebbe del
tutto peregrina. Schumpeter riteneva che leconomista scientifico, per considerarsi
davvero tale, dovrebbe esser capace di padroneggiare una complessa variet di
90
discipline: dalla storia, alla statistica, alla teoria pura. Al giorno doggi per le cose sono
molto diverse e la specializzazione del lavoro condiziona pesantemente anche la
formazione degli economisti. Per molti di essi passare da un ambito di ricerca allaltro
pu risultare difficile quanto per un cardiochirurgo pu esserlo una diagnosi in campo
neuropsichiatrico. Non sembra per esser questo il caso di Diamond, che nel corso degli
anni ha continuamente mostrato di poter spaziare tra argomenti diversissimi, dalla
cosiddetta high theory ai problemi della previdenza, dalle analisi del mercato del
lavoro ai contributi in tema di tassazione. A coronamento di una cos lunga e articolata
carriera giunge adesso anche il conferimento del Nobel, che render piuttosto deboli gli
argomenti dei repubblicani e che sembra quindi preannunciare una vittoria di Obama,
gi da tempo fermamente intenzionato a riproporre al Senato la candidatura
delleconomista bostoniano al board della FED.
Ma c un motivo forse ancor pi interessante per il quale le decisioni di
Stoccolma potrebbero avere qualche immediata ricaduta sul dibattito politico. Tra gli
studi di Diamond, Mortensen e Pissarides vi sono infatti anche quelli dedicati alle
carenze di informazione e ai vari altri ostacoli che possono rendere difficile la ricerca
reciproca e lincontro tra lavoratori disoccupati e imprese intenzionate ad assumere.
Uno degli oggetti di questi studi la rivisitazione della cosiddetta curva di Beveridge,
una relazione che prende il nome da Lord Beveridge, noto economista e riformatore
sociale che nellimmediato dopoguerra contribu alla edificazione del moderno welfare
state britannico. Nella sua interpretazione tradizionale, la curva esprime un legame
statistico tra il numero di posti di lavoro disponibili e il numero dei disoccupati. In
genere questo legame dovrebbe risultare inverso. La ragione che in una situazione di
recessione causata da carenza di domanda i disoccupati saranno numerosi mentre i posti
disponibili saranno ben pochi. Di contro, in una fase di espansione della domanda e
della produzione, il numero dei disoccupati si riduce mentre i posti di lavoro vacanti
crescono a causa della crescente difficolt delle imprese di reperire lavoratori. Si viene
cos a delineare una sorta di curva che in corrispondenza di unalta disoccupazione
segnaler una bassa disponibilit di posti liberi, e viceversa. Conoscendo dunque il
numero dei disoccupati e il numero di posti disponibili, le autorit di governo
dovrebbero essere in grado di verificare, per esempio, se leconomia soffre o meno di
una carenza di domanda e se necessita quindi di politiche espansive.
Il problema che si pone che il rapporto tra posti vacanti e lavoratori disoccupati
pu cambiare, e quindi la curva di Beveridge pu subire degli improvvisi
spostamenti. Di recente negli Stati Uniti si proprio discusso di questa eventualit. Le
statistiche infatti segnalano un forte incremento dei disoccupati che, contrariamente a
quanto lascerebbe intendere la curva, risulta accompagnato non da una riduzione ma
da un moderato aumento dei posti disponibili. Tra gli economisti mainstream la
spiegazione convenzionale per questo fenomeno che la curva potrebbe essersi
spostata. C tuttavia un profondo disaccordo sui possibili motivi di questo
riposizionamento. Alcuni sostengono che lesistenza di tanta gente a spasso nonostante
la disponibilit di posti vacanti sia dovuta ai generosi sussidi ai disoccupati erogati
dallAmministrazione Obama. Dalle frange oltranziste del partito repubblicano il
Presidente viene per questo additato come una sorta di moderno Lafargue, colpevole di
indurre allozio gli altrimenti onesti e laboriosi operai americani. Contro questa tesi vi
invece quella di chi ritiene che lincremento contemporaneo dei disoccupati e dei posti
disponibili si spieghi con la grave crisi economica in corso e con le profonde
ristrutturazioni cui essa ha dato luogo. La grande recessione potrebbe cio aver
91
determinato non solo un crollo della produzione totale ma anche uno stravolgimento
delle proporzioni tra i vari settori produttivi, e quindi un mutamento delle qualifiche
richieste dalle imprese rispetto alle competenze effettive dei disoccupati. Il fatto che
laumento dei disoccupati sia stato finora molto pi marcato rispetto allaumento dei
posti vacanti farebbe logicamente propendere verso questa seconda possibilit. Se per
si osservano i dati dal punto di vista delle teorie premiate il ragionamento tende a
complicarsi. Dalle ricerche di Diamond, Mortensen e Pissarides si possono infatti trarre
conclusioni favorevoli sia alluna che allaltra interpretazione. Anzi, se si guarda alle
versioni elementari dei modelli di Pissarides si scopre che in esse la possibilit stessa di
un crollo della domanda non viene nemmeno contemplata. Nelle versioni pi sofisticate
di questi modelli la crisi da domanda viene ammessa, ma solo nei termini di una
deviazione temporanea dallequilibrio del sistema. Nel lungo termine, la disoccupazione
dovr quindi sempre essere interpretata in una chiave che potremmo definire
minimalista, ossia quale mero problema di mancato incontro tra domanda e offerta di
lavoro e non come il riflesso di una crisi generalizzata che possa lungamente deprimere
prima luna e poi laltra. Insomma, non sembra esservi modo in queste analisi di
concepire la carenza di domanda effettiva come una malattia che pu protrarsi nel
lungo periodo. Tale difficolt in effetti abbastanza comune a tutto il variegato
arcipelago della teoria economica mainstream. Dati i tempi, c chi ritiene che essa stia
diventando anche un po frustrante.
Il premio Nobel 2011 per l'Economia stato assegnato agli statunitensi Thomas J.
Sargent (Universit di New York) e Christopher A. Sims (Universit di Princeton).
Alla base del riconoscimento, ladozione di nuovi metodi empirici per analizzare i
reciproci rapporti di causa ed effetto tra le decisioni delle autorit pubbliche da un lato,
e il comportamento degli agenti privati dallaltro. Lidea di fondo che non soltanto la
politica economica incide sulle aspettative e sui comportamenti dei privati, ma le
previsioni e le azioni di questi ultimi, a loro volta, retroagiscono sulle decisioni
politiche.
Per gli esponenti delle cosiddette scienze dure lassegnazione dei Nobel una
prestigiosa occasione per redigere un bilancio delle dispute tra le diverse scuole di
pensiero. Per gli economisti lo ovviamente a fortiori, soprattutto in questi tempi
turbolenti, di crisi e di cigolio delle antiche certezze liberiste. In simili circostanze, la
tentazione un po brutale di collocare i vincitori in uno dei vari filoni di ricerca esistenti
particolarmente forte. Non si tratta per di una operazione sempre agevole. Sotto
questo aspetto, contrariamente alle apparenze, il contributo di Sims non
immediatamente etichettabile. Leconomista di Princeton infatti lideatore dei
cosiddetti modelli autoregressivi vettoriali, una tecnica di analisi dei dati empirici che
stata largamente adoperata non soltanto dagli esponenti della teoria economica
dominante, ma anche da studiosi eterodossi che adottano approcci di teoria critica. Negli
ultimi anni il campo di validit dei modelli di Sims stato per varie ragioni
ridimensionato, ma il fatto che essi abbiano avuto un enorme impatto sulla ricerca
econometrica mondiale, e che siano perfino riusciti a valicare i muri di incomunicabilit
tra le scuole di pensiero, assolutamente fuori discussione.
92
quale prestatore di ultima istanza, che oggi negli Stati Uniti e in Europa oggetto di
rinnovata attenzione, nonch di parziale applicazione. Sargent tuttavia si distingue dalla
visione eterodossa per un motivo cruciale: il suo modello non ammette che la politica
della banca centrale, atta a sostenere la spesa statale in disavanzo, possa contribuire ad
accrescere la domanda di merci, la produzione e loccupazione, e quindi anche il livello
del reddito e delle entrate fiscali. Per leconomista affermatosi nelle cittadelle ortodosse
di Minnesota e Chicago vale sempre il principio secondo cui loccupazione, la
produzione e il reddito reale dipendono in ultima istanza dai fattori strutturali delle
preferenze, della tecnica e delle dotazioni di risorse, e non possono quindi esser
modificati da iniezioni di domanda finanziate da debiti. Questa tesi, tipicamente anti-
keynesiana, alla base del motivo per cui Sargent ha recentemente dichiarato che la
banca centrale non dovrebbe mai agire da prestatore di ultima istanza. Ci significa, ad
esempio, che in linea di principio la BCE avrebbe dovuto lasciar fallire la Grecia e i
paesi periferici della zona euro, scaricando lonere della bancarotta sui loro incauti
creditori. Nella stessa intervista, tuttavia, leconomista statunitense ha ammesso che tale
regola di condotta solo ideale: nella pratica, la BCE dovr intervenire massicciamente
a sostegno dei paesi in difficolt. Questo riconoscimento tuttavia non va inteso come
una inattesa conversione al keynesismo. Sargent infatti non accenna minimamente alla
possibilit che, in mancanza di un sostegno della BCE, i paesi in difficolt possano
cadere in una spirale perversa, nella quale il tentativo di stringere la cinghia per
rimborsare i debiti deprime la domanda e i redditi e quindi, anzich migliorare la
situazione finanziaria, la deteriora ulteriormente. Per leconomista statunitense la
necessit di un intervento della BCE si spiega pi prosaicamente con il fatto che i
principali creditori dei paesi periferici sono le banche private, il cui fallimento potrebbe
avere effetti destabilizzanti sullintero sistema economico. Forse sarebbe anche il caso
di aggiungere che un eventuale salvataggio delle banche dovrebbe esser condizionato a
una loro stabile nazionalizzazione. Magari questa conclusione non entra nelle corde di
Sargent o dellAccademia svedese delle scienze, ma ha certamente pi senso delle
proposte indecenti che vengono in questi mesi avanzate per tentare di salvare capra e
cavoli: vale a dire, la solvibilit delle banche e la loro propriet privata.
Gli americani Lloyd Shapley, 89 anni, dellUniversit della California, e Alvin Roth,
60 anni, di Harvard, sono i vincitori del premio Nobel 2012 per lEconomia in virt dei
loro contributi alla teoria delle allocazioni stabili e alla pratica del market design.
In estrema sintesi, si tratta di ricerche dedicate a quelle particolari situazioni in cui il
tradizionale meccanismo dei prezzi non pu essere adottato per mettere in equilibrio la
domanda e lofferta del mercato, e quindi deve essere sostituito da altri criteri. Si pensi
ad esempio allallocazione degli studenti nelle universit, allassegnazione degli organi
ai pazienti in attesa di trapianto, e a tutte le circostanze in cui lequilibrio tra richieste e
offerte non pu essere affidato alle normali transazioni monetarie e alla connessa
formazione dei prezzi a causa di svariati ostacoli, di ordine tecnico oppure etico.
Pioniere in questo campo fu Shapley, che nel 1962, in collaborazione con David Gale,
elabor il cosiddetto algoritmo dei matrimoni stabili. Dato un gruppo di persone che
esprimono delle preferenze le une verso le altre, lalgoritmo descrive la procedura
94
ottimale per suggerire accoppiamenti stabili: ogni partecipante verr associato al partner
preferito, tenuto conto delle scelte di tutti gli altri. Un profano potrebbe scambiarla per
una soluzione in grado di pervenire a un ideale ratzingeriano di societ, costituito da
coppie fedeli che mai divorzieranno. Ma a guardar bene lalgoritmo di Shapley
garantisce la stabilit dei matrimoni sotto condizioni alquanto restrittive, tra cui lipotesi
di immutabilit delle preferenze. Si esclude cio che il coniuge riveda le proprie
decisioni man mano che i peggiori vizi del partner vengono alla luce, o magari cambi i
propri desideri semplicemente perch let avanza e lesperienza cresce.
Negli anni pi recenti numerosi economisti hanno proposto cambiamenti per tentare di
rimuovere ipotesi cos irrealistiche. In particolare, stata ammessa leventualit che
linformazione degli aspiranti sposi sia asimmetrica, nel senso che ciascuno dei
partecipanti pu essere interessato a rivelare i propri pregi ma non i difetti. In
circostanze simili lalgoritmo si complica, poich deve contemplare incentivi che
inducano i partecipanti a non celare le loro caratteristiche. Lagognata individuazione di
accoppiamenti stabili in tal caso rimane possibile, ma si fa decisamente pi ostica.
Nonostante le difficolt, comunque, gli studiosi non hanno smesso in questi anni di
indagare intorno allalgoritmo di Gale e Shapley. Un tale interessamento, si badi, non
deriva da una improvvisa ossessione per la sacralit del matrimonio ma da ragioni
decisamente pi prosaiche. Si infatti scoperto che procedure come quelle inventate da
Shapley si possono applicare a una grande variet di problemi economici, con risultati
oltretutto pi robusti rispetto alloriginario gioco delle coppie. Roth, in particolare, ha
mostrato che alcune varianti dellalgoritmo di Shapley aiutano a risolvere questioni
pratiche riguardanti lallocazione dei giovani medici nelle strutture sanitarie. Nel 1995
leconomista di Harvard fu chiamato dalle autorit di governo statunitensi per risolvere
un problema di instabilit delle allocazioni che derivava dallaumento delle donne
laureate in medicina. Il meccanismo vigente fino a quel momento tendeva ad assegnarle
ad ospedali distanti dal luogo di lavoro dei rispettivi coniugi, il che le induceva a
chiedere trasferimenti per evitare di dividere il nucleo familiare. Roth dovette allora
introdurre dei correttivi allalgoritmo, in modo che le assegnazioni tenessero conto delle
esigenze familiari dei medici assunti. Ulteriori varianti della procedura originaria sono
state proposte per la gestione di problemi ancor pi delicati, come la formazione delle
graduatorie per i trapianti dorgani. Le possibilit di applicazione, tuttavia, non si sono
limitate allambito sanitario. Altri studiosi hanno proposto nuovi algoritmi per
governare la destinazione degli atleti pi promettenti nelle societ sportive pi
blasonate, o lordinamento delle informazioni fornite da internet tramite i motori di
ricerca. Lintuizione originaria di Shapley, insomma, si mostrata duttile a sufficienza
per essere riadattata a qualsiasi contesto in cui lequilibrio tra domanda e offerta non
pu essere ottenuto affidandosi al tradizionale meccanismo di mercato basato sui
movimenti dei prezzi.
Naturalmente, non sono mancate voci critiche nei confronti della reale efficacia
di queste applicazioni pratiche. Unobiezione, per esempio, che la maggiore o minore
stabilit delle allocazioni potrebbe dipendere da fattori del tutto indipendenti dagli
algoritmi adottati. Roth ha cercato allora di fugare tali dubbi proponendo degli
esperimenti controllati. Per dimostrare che linstabilit delle allocazioni dei medici in
alcune citt inglesi dipendeva da una errata allocazione, egli cre in laboratorio dei
piccoli mercati artificiali che riproducevano le caratteristiche dei criteri allocativi
adottati nelle varie citt esaminate. Gli esperimenti mostrarono che i mercati che pi si
allontanavano dalla logica degli algoritmi allocativi erano effettivamente i pi instabili.
95
Gli americani Eugene Fama (Universit di Chicago), Lars Peter Hansen (Universit di
Chicago) e Robert Shiller (Universit di Yale) sono i vincitori del premio Nobel 2013
per lEconomia, in virt delle loro analisi sulla previsione degli andamenti dei mercati
delle attivit finanziarie e immobiliari. Nel motivare la scelta di questanno,
lAccademia svedese delle scienze ha molto insistito sugli elementi di continuit tra le
ricerche degli studiosi premiati. In realt, come vedremo, il loro successo derivato
soprattutto dagli elementi di rottura tra le loro analisi e dallampia letteratura che si
sviluppata in questi anni intorno ad essi.
Appartenente a una famiglia di origine siciliana emigrata a Boston ai primi del
secolo scorso, Eugene Fama annoverato tra i pi intransigenti difensori della libert
dei mercati finanziari e della loro completa deregolamentazione. Questa posizione
politica viene solitamente giustificata dai suoi epigoni in base alla tesi secondo cui il
mercato utilizza al meglio tutte le informazioni disponibili utili alla determinazione del
prezzo delle attivit, e ogni eventuale nuova informazione viene istantaneamente
96
incorporata nei prezzi delle attivit. Nel caso della borsa valori, per esempio, il prezzo
corrente delle azioni riflette le informazioni disponibili circa il valore attuale dei
dividendi futuri attesi. Se dunque i prezzi che scaturiscono dalle contrattazioni sono
determinati in base a un impiego ottimale di tutte le informazioni disponibili, nessuno
potr sperare di utilizzare quelle stesse informazioni per speculare, cio per battere il
mercato.
Da questa tesi i seguaci di Fama hanno tratto la conclusione secondo cui il
mercato azionario il miglior giudice di s stesso: ogni intervento di regolazione della
borsa, come di tutti gli altri mercati, finirebbe per turbare un processo di determinazione
dei prezzi che utilizza nel modo migliore le informazioni disponibili, e che dunque pu
esser considerato il pi efficiente criterio di allocazione delle risorse disponibili. Bench
apertamente tratta dalle analisi di Fama, in realt questa volgarizzazione non riflette il
loro grado di sofisticatezza. Basti notare, ad esempio, che sebbene abbia fornito
importanti contributi a sostegno dellidea che il mercato determina i prezzi utilizzando
tutte le informazioni disponibili, leconomista di Chicago ha anche fatto notare che i
prezzi dipendono pure dalla teoria in base alla quale le informazioni vengono elaborate.
Dopo la crisi esplosa nel 2007 Fama ha riconosciuto che c oggi grande incertezza
intorno alla scelta della giusta teoria, vale a dire della corretta interpretazione del
funzionamento del sistema economico. Tale incertezza, tuttavia, non sembra costituire a
suo avviso un motivo per zittire i volgarizzatori del suo pensiero: anzi, in un contesto in
cui non vi consenso circa la scelta del giusto modello interpretativo del mondo che ci
circonda, egli sembra far valere ancor di pi la tesi secondo cui il libero mercato resta il
criterio allocativo migliore, e quindi non dovrebbe mai essere imbrigliato dai tentativi di
regolazione politica.
Le tesi di Fama hanno goduto di un enorme successo allinterno della comunit
accademica internazionale. Eppure, gi prima dello scoppio della crisi, le evidenze
empiriche tendevano a smentire piuttosto seccamente l'idea della efficienza dei mercati
finanziari. Il caso della borsa valori in questo senso emblematico. Se i prezzi correnti
delle azioni riflettessero semplicemente le informazioni disponibili sui dividendi futuri
attesi allora la variabilit dei prezzi dovrebbe risultare inferiore a quella dei dividendi;
spiegato in termini intuitivi, questi ultimi dovrebbero variare maggiormente poich si
determinano in una fase successiva e quindi incorporano informazioni che al momento
della fissazione dei prezzi non erano disponibili. In un celebre articolo pubblicato nel
1981, tuttavia, Shiller elabor un test econometrico dal quale scatur un risultato
esattamente opposto: la variabilit dei prezzi di mercato dei titoli azionari eccede di
gran lunga quella dei dividendi, fino a cinque volte di pi e in alcuni casi persino oltre.
Evidentemente, dunque, i prezzi non possono esser considerati un mero riflesso dei
dividendi futuri. Altre forze incidono su di essi, e la sfida scientifica consiste
nellindividuarle.
I difensori della tesi dei mercati efficienti hanno cercato di spiegare i risultati di
Shiller in base allidea che i prezzi correnti delle azioni non dipendono solo dai
dividendi futuri ma anche dalle preferenze degli agenti economici tra consumo presente
e consumo futuro, che nella loro ottica determinano il volume del risparmio e quindi
anche la domanda di azioni. Tali preferenze tenderebbero a modificarsi durante le varie
fasi del ciclo economico: per esempio, nel corso di una recessione il consumo presente
si riduce, la preferenza verso di esso dunque aumenta, il che modifica la domanda di
azioni e quindi anche i loro prezzi di mercato, del tutto indipendentemente dalle
variazioni dei dividendi futuri. Questa spiegazione, tuttavia, stata confutata da test
97
econometrici successivi tra cui spiccano quelli elaborati dal terzo vincitore, Lars
Hansen. I test, tra laltro, sembrano indicare che il ciclo economico incide in misura
troppo limitata sulle scelte di acquisto dei titoli, e quindi non pu costituire una valida
giustificazione per leccessiva variabilit dei prezzi rispetto ai dividendi.
I risultati di Shiller hanno trovato riscontri ulteriori anche nelle analisi di altri
mercati, come ad esempio quelli delle obbligazioni e delle valute. Cos come in borsa i
prezzi delle azioni oscillano molto pi dei dividendi futuri, cos anche negli altri mercati
i prezzi tendono ad allontanarsi dai valori che dovrebbero scaturire dalle informazioni
fondamentali sul futuro. Se ne tratta cos la conclusione generale secondo cui lalta
variabilit dei prezzi dovuta al fatto che i mercati finanziari sono dominati da fattori
psicologici imponderabili, in grado di generare ondate di euforia o di panico: le
cosiddette bolle speculative, che gonfiandosi e poi scoppiando contribuiscono alla
instabilit complessiva del sistema economico, generando cicli di boom e di depressione
della produzione e delloccupazione. Questa chiave di lettura, di cui lo stesso Shiller
stato un fautore, ha aperto la via alla cosiddetta finanza comportamentale, una branca
della ricerca economica che prova a spiegare la dinamica dei mercati finanziari in base
allidea che il comportamento degli agenti economici non sempre possa esser definito
razionale. Si tratta di una linea di indagine che pu vantare illustri predecessori, tra cui
Charles Kindleberger e John Kenneth Galbraith. Nella versione corrente, tuttavia, essa
sembra dare adito allidea che, se gli agenti fossero perfettamente razionali, i prezzi
rifletterebbero le informazioni fondamentali e quindi una soluzione di libero mercato
potrebbe risultare efficiente. Una conclusione, questa, che per molti versi appare
insoddisfacente, e che presta il fianco alla critica di quegli indirizzi alternativi di ricerca
secondo i quali la bolla speculativa non costituisce tanto unanomalia determinata
dallirrazionalit dei singoli individui, ma rappresenta piuttosto una necessit vitale
dellattuale regime di accumulazione capitalistica, fondato sulla centralit del mercato
finanziario.
Di fronte allavanzata dei suoi numerosi critici Fama non sembra essersi
scomposto pi di tanto. Recentemente, anzi, egli sembra avere ulteriormente
estremizzato la sua posizione, affermando che in fin dei conti le bolle non esistono e
che il mercato finanziario sarebbe stato addirittura la vittima della recessione, non la
causa. Un simile atteggiamento, a prima vista, potrebbe esser scambiato per lultimo
arrocco di un sovrano della cittadella accademica, ormai prossimo alla defenestrazione.
La verit, tuttavia, che sebbene abbia perduto gran parte del suo appeal scientifico, la
retorica liberista di Fama potrebbe rivelarsi pi in sintonia con lattuale tempo politico
di quanto si possa immaginare. Dopotutto, il regime di accumulazione trainato dal
mercato finanziario entrato in crisi pi e pi volte, in questi anni, sotto i colpi dei
danni che esso stesso provocava. Ma nessun movimento politico ha finora osato anche
solo accennare a una sua messa in discussione. Potremmo dire, insomma, che sebbene
la sua inefficienza risulti per molti versi conclamata, il mercato finanziario e i suoi
apologeti stanno opponendo una efficace resistenza politica alle pressioni della critica. Il
futuro rischia pertanto di essere ancora una volta di Fama e dei suoi epigoni, piuttosto
che di Shiller. E la repressione della finanza, che Keynes negli anni Trenta invocava e
che almeno in parte riusc a conseguire, resta per il momento solo una chimera.
Brancaccio, E. (2005). Stock market and bubbles, Quaderno DASES Universit del Sannio, 7.
Brancaccio, E. e Passarella, M. (2012). Lausterit di destra. E sta distruggendo lEuropa, Milano, Il
Saggiatore.
98
L'Accademia reale svedese delle scienze ha assegnato il premio Nobel 2015 per
lEconomia allo scozzese Angus Deaton, docente negli Stati Uniti presso lUniversit di
Princeton, per i suoi studi dedicati allanalisi dei consumi, della povert e del benessere.
Nato a Edinburgo nel 1945, Deaton ha dedicato buona parte della sua attivit di
ricerca allarduo compito di sciogliere uno dei nodi chiave dellindividualismo
metodologico, sul quale la teoria neoclassica dominante tuttora si basa: indagare
sullandamento di grandi variabili aggregate, come la composizione della domanda di
beni o landamento nel tempo del consumo nazionale, partendo sempre da unanalisi del
comportamento dei singoli individui. Per questo scopo, assieme a Muellbauer, Deaton
elabor nel 1980 il cosiddetto sistema di domanda quasi ideale. Per la sua duttilit
questo criterio risolveva vari problemi di aggregazione degli approcci precedenti e
costituisce tuttora un punto di riferimento per la ricerca economica sulle decisioni di
consumo. Una questione rilevante, appena accennata dallAccademia svedese delle
scienze, resta tuttavia irrisolta. Tutto questo filone di studi poggia infatti sullipotesi di
razionalit individuale tipica della teoria prevalente. Si suppone, ad esempio, che i
consumatori non siano affetti da illusione monetaria, per cui un aumento di tutti i prezzi
accompagnato da un pari aumento del reddito destinato ai consumi non dovrebbe
modificare le loro decisioni di spesa. Deaton ha giustamente insistito sullopportunit di
concepire sistemi di analisi della domanda che consentano di verificare se lassunzione
di razionalit dei singoli individui trovi conferma nei dati. Il problema che le verifiche
empiriche effettuate da lui e da molti altri, al riguardo, tendono a smentire tale ipotesi.
Un risultato che non crea alcuna difficolt ai filoni di ricerca alternativi che rifiutano a
monte lindividualismo metodologico e lipotesi di comportamento razionale dei
singoli, ma che determina invece notevoli complicazioni per la teoria neoclassica
prevalente.
Negli anni pi recenti Deaton ha concentrato i suoi studi nel campo dellanalisi
della povert e del benessere nei paesi meno sviluppati. In collaborazione con la Banca
Mondiale, egli ha realizzato varie indagini dedicate alla raccolta e alla elaborazione di
dati sui comportamenti di consumo delle famiglie. Tali ricerche, tra laltro, hanno
contribuito a definire criteri consolidati di calcolo degli standard di vita a livello
mondiale. La difficolt principale di questi studi riguarda lannoso problema della
carenza di dati disponibili, specialmente nei paesi pi poveri. Per superare questo
ostacolo Deaton ha dovuto ideare diverse strategie. Una prova della sua inventiva
rappresentata dal modo in cui cerc di verificare se fosse vero che nei paesi pi poveri
le famiglie tendono sistematicamente a discriminare le figlie femmine rispetto ai figli
maschi. In assenza di dati diretti sulla ripartizione delle risorse tra i generi allinterno di
ciascun nucleo familiare, egli sugger il seguente criterio empirico: se alla nascita di un
figlio maschio il consumo totale degli adulti della famiglia tende a contrarsi di pi
99
rispetto al caso in cui nasce una figlia femmina, ci pu indicare che al maschio
vengono assegnate maggiori risorse. Adottando questa metodologia, stato rilevato che
tale discriminazione, pur non essendo sistematica, trova conferme nelle fasi in cui le
famiglie sono colpite da eventi avversi.
Nelle dispute sulla politica economica Deaton intervenuto in varie occasioni,
soprattutto attraverso le sue Letters from America pubblicate periodicamente dalla
Royal Economic Society britannica. Allo scoppio della crisi del 2008 egli appoggi la
politica di rilancio della domanda di merci avviata da Obama e critic gli economisti
vicini al partito repubblicano che la avversavano. La sua visione politica generale,
tuttavia, emersa pi chiaramente nel 2013 a seguito della pubblicazione del libro The
great escape, in cui lautore celebra la grande fuga dalla povert che ha caratterizzato
gran parte delleconomia mondiale negli ultimi due secoli e mezzo. In varie parti del
volume Deaton sembra abbandonare laplomb dellaccademico di rango per rispolverare
una vecchia, confutatissima apologia del capitalismo concorrenziale, secondo cui la
disuguaglianza costituirebbe un carburante necessario dello sviluppo economico: Se un
governo assicurasse a ciascuno lo stesso reddito, la gente lavorerebbe molto meno e di
conseguenza persino i pi poveri starebbero peggio che in un mondo che ammette le
diseguaglianze. Da qui alla tipica esortazione dei repubblicani americani, di lasciare in
pace i ricchi e di accontentarsi delle briciole che cadranno (si spera) dalla loro tavola, in
effetti poco ci passa.
14 Nobel 2016: dalla teoria dei contratti alla realt della crisi
Oliver Hart, nato nel 1948 a Londra e docente ad Harvard, e Bengt Holmstrm, nato nel
1949 ad Helsinki e docente al MIT di Boston, sono i vincitori del premio Nobel 2016
per leconomia. I due studiosi sono stati premiati dallAccademia svedese delle scienze
per i loro contributi alla teoria dei contratti, quel campo della ricerca economica che
studia le determinanti delle diverse forme contrattuali e i modi in cui la stipula di un
contratto possa condurre a risultati pi o meno ottimali, per le parti e per la collettivit
nel suo complesso [1].
Un tipico problema analizzato dalla teoria dei contratti quello che si pone
quando il mandante di un determinato incarico non sia in grado di verificare con
precisione se e in che misura il mandatario si impegni ad assolverlo. Ossia la
prestazione dellagente, come si dice in gergo, non direttamente osservabile da chi lo
abbia assunto. Questa circostanza si definisce asimmetria informativa ed frequente
in moltissimi rapporti contrattuali, come ad esempio quelli tra azionisti e manager di
unimpresa. Considerato che lattivit del manager difficilmente osservabile, in che
modo gli azionisti possono indurlo a impegnarsi per massimizzare i loro profitti? Una
soluzione contrattuale potrebbe consistere nel collegare la remunerazione del manager
allandamento dei prezzi delle azioni dellimpresa: se i prezzi salgono la paga sale, e
viceversa. A Wall Street questo sistema utilizzato spesso, ma presenta un serio
inconveniente: dato che i prezzi azionari sono ampiamente influenzati da fattori
indipendenti dal comportamento del manager, la sua paga finir per dipendere dalla sua
fortuna molto pi che dalla sua abilit. Nel 1979 Holmstrom sugger un possibile
rimedio: per ridurre linfluenza del caso il manager potrebbe esser pagato sulla base del
rapporto tra i prezzi azionari dellimpresa che egli guida e i prezzi di imprese simili che
100
non siano sotto il suo controllo [2]. In seguito, assieme ad altri colleghi, leconomista
finlandese ha proposto varianti sempre pi complesse di questa soluzione. La realt,
tuttavia, sembra situarsi sempre un passo avanti rispetto alle architetture contrattuali
suggerite dalla teoria. Basti pensare a una circostanza di cui molto si discusso dopo la
crisi finanziaria del 2008: quella in cui gli stessi manager intervengono sul mercato allo
scopo di gonfiare il valore delle azioni dimpresa cos da accrescere la loro paga. In casi
del genere il criterio di Holmstrom non aiuta: anzi, il rapporto tra il prezzo dellimpresa
e i prezzi di imprese simili costituisce una misura non tanto dellimpegno del manager
quanto piuttosto del suo azzardo.
Il problema dellosservazione della performance della controparte non tuttavia
lunico affrontato dalla teoria dei contratti. Una questione ancor pi rilevante quella
che riguarda i cosiddetti contratti incompleti, vale a dire quelle situazioni in cui le
parti non sono in grado di definire in dettaglio tutti i termini contrattuali. Oliver Hart, in
collaborazione con Grossman e Moore, ha sostenuto che un contratto, sebbene
incompleto, dovrebbe chiarire almeno chi abbia il diritto di decidere nel caso in cui
emerga una controversia tra le parti. Lassegnazione di tale diritto cruciale, poich
essa stabilir quale delle parti abbia incentivo a impegnarsi e ad investire nellattivit e
quale invece sia disincentivata [3]. Un contributo di ricerca, in questo senso, consistito
nel definire un criterio efficiente di assegnazione dei diritti di propriet del capitale
lungo una determinata filiera produttiva. Si pensi ad esempio a unattivit innovativa
che richieda luso di macchine e che debba poi avvalersi di un canale distributivo. Nelle
mani di chi dovr concentrarsi la propriet di queste tre attivit? La risposta che
lintera propriet andrebbe assegnata allinnovatore, ossia al soggetto che svolge il
compito pi difficile da inquadrare dettagliatamente allinterno di un contratto. E a lui
che occorre assegnare il reddito netto della filiera, perch solo in tal modo si pu sperare
che lattivit innovativa, pur in assenza di vincoli contrattuali, sia realizzata nel modo
pi efficiente. Seguendo questo ragionamento, dunque, in generale la propriet
dovrebbe essere assegnata a chi dispone di competenze difficilmente negoziabili. Da
questa linea di pensiero scaturito il cosiddetto nuovo approccio ai diritti di propriet,
un filone di ricerca che ha goduto di notevole seguito. Non tutti per hanno condiviso in
pieno questa impostazione. E stato osservato, ad esempio, che soprattutto nel campo
della propriet intellettuale possono attivarsi dei processi cumulativi poco piacevoli: che
si tratti di singole imprese o di interi paesi, i soggetti maggiormente dotati di diritti di
propriet intellettuale tenderanno a sviluppare ulteriori abilit nella produzione di diritti
di propriet intellettuale, mentre chi non dispone di tali diritti sar anche disincentivato
a produrne, con conseguenti divergenze tra ricchi e poveri persino pi gravi rispetto a
quelle causate dai divari nelle dotazioni di capitale fisico. In altre parole, lassegnazione
del diritto influisce sulla maggiore o minore crescita della capacit di innovare,
rendendo il problema dellallocazione ottimale della propriet ancor pi complesso di
quanto la teoria prevalente induca a ritenere [4].
Lassegnazione dei diritti di propriet, per Hart, pu rappresentare anche un
criterio razionale per tracciare il confine economico tra pubblico e privato. Lintervento
statale, a suo avviso, non in grado di garantire una gestione efficiente proprio perch
esso esclude una precisa assegnazione delle propriet e dei connessi diritti di decisione.
Per questo motivo, pu esser conveniente estendere lazione del privato ad ambiti
tradizionalmente di competenza dello stato, come la gestione degli ospedali, delle
scuole e persino delle prigioni [5]. Per fortuna, anche per Hart lestensione della mano
privata ha un limite. Quando loperatore privato sia incentivato a investire soprattutto
101
[1] Committee for the Prize in Economic Sciences in Memory of Alfred Nobel (2016).
Oliver Hart and Bengt Holmstrom: Contract Theory. Cfr. anche: Royal Swedish
Academy of Sciences (2016). The Prize in Economic Sciences: popular science
background.
[2] Holmstrom B. (1979). Moral Hazard and Observability, Bell Journal of Economics,
10.
[3] Grossman, S., O. Hart (1983a): An Analysis of the Principal-Agent Problem,
Econometrica, 51. Hart, O., J. Moore (1990): Property Rights and the Nature of the
Firm, Journal of Political Economy, 98.
[4] Pagano U., M.A. Rossi (2004). Incomplete Contracts, Intellectual Property and
Institutional Complementarities, European Journal of Law and Economics, 18.
[5] Hart, O., A. Shleifer, and R. Vishny (1997): The Proper Scope of Government:
Theory and an Application to Prisons, Quarterly Journal of Economics, 112.
[6] Holmstrom, B. (2015). Understanding the role of debt in the financial system, BIS
Working Papers, 479.
[7] Hart, O., L. Zingales (2014). Banks are where the liquidity is, NBER Working paper
n. 20207.