4 Calvo Framework e 4.1 Problema della famiglia
4.3 Condizioni di equilibrio domestico
4.4 Problema di fissazione dei prezzi
4.5 Condizioni di equilibrio nominale
4.6 Condizioni di equilibrio reale e 4.7 Shock
5.1 Curva di Phillips singolare
5.2 Persistenza e puzzle politici
6 Equilibrio stocastico e 6.1 Teoria ergodica e sistemi dinamici casuali
6.2 Costruzione dell'equilibrio
6.3 Confronto della letteratura
7 Curva di Phillips linearizzata generale
8 Risultati di esistenza e 8.1 Risultati principali
9.2 Aspetti algebrici (I) Singolarità e coperture
9.3 Aspetti algebrici (II) Omologia
9.4 Aspetti algebrici (III) Schemi
9.5 Interpretazioni economiche più ampie
10 Implicazioni econometriche e teoriche e 10.1 Identificazione e compromessi
10.3 Proprietà dei coefficienti
10.4 Interpretazione microeconomica
Appendici
Una dimostrazione del teorema 2 e A.1 dimostrazione della parte (i)
B Dimostrazioni dalla Sezione 4 e B.1 Domanda di prodotto individuale (4.2)
B.2 Equilibrio flessibile dei prezzi e ZINSS (4.4)
B.3 Dispersione dei prezzi (4.5)
B.4 Minimizzazione dei costi (4.6) e (10.4)
C Dimostrazioni dalla Sezione 5 e C.1 Puzzle, politica e persistenza
C.2 Estensione senza persistenza
D Equilibrio stocastico e D.1 Equilibrio non stocastico
D.2 Profitti e crescita a lungo termine
E Pendenze e autovalori e E.1 Coefficienti di pendenza
E.2 Soluzione DSGE linearizzata
E.3 Condizioni degli autovalori
E.4 Condizioni del teorema di Rouche
F Algebra astratta e F.1 Gruppi di omologia
F.4 Costi marginali e inflazione
G Ulteriori modelli keynesiani e G.1 Prezzi di Taylor
G.2 Curva di Phillips dei salari di Calvo
G.3 Impostazioni di policy non convenzionali
H Robustezza empirica e H.1 Selezione dei parametri
I Ulteriori prove e I.1 Altri parametri strutturali
I.3 Volatilità dell'inflazione di tendenza
La comprensione empirica in macroeconomia ha fatto grandi passi avanti negli ultimi anni. Un crescente corpo di prove prive di modelli mostra che la rigidità dei prezzi e dei salari è onnipresente. Ciò è confermato da molti studi microeconometrici sull'adeguamento dei prezzi come Alvarez et al. [2006], Dhyne et al. [2006], Gagnon [2009], Klenow e Malin [2010], Vermeulen et al. [2012], Berardi et al. [2015] e Kehoe e Midrigan [2015],[1] mentre i salari individuali si adeguano lentamente con particolare resistenza alle riduzioni nominali, come riscontrato ad esempio da Fehr e Goette [2005], Dickens et al. [2007], Barattieri et al. [2014], Kaur [2019] e Grigsby et al. [2021]. Una serie di esperimenti quasi naturali rivelano che gli shock della domanda aggregata sono fattori determinanti del ciclo economico quantitativamente importanti (vedere Auerbach e Gorodnichenko [2012b], Auerbach e Gorodnichenko [2012a], Auerbach e Gorodnichenko [2013], Bils et al. [2013], Acconcia et al. [2014], Mian e Sufi [2014], Chodorow-Reich e Karabarbounis [2016] e ChodorowReich et al. [2019]). Gli shock di politica monetaria possono avere impatti ampi e potenzialmente duraturi sulla produzione (vedi Christiano et al. [1999], Romer e Romer [2004], Velde [2009], Gertler e Karadi [2015], Jordà et al. [2020a], Jordà et al. [2020b] e Palma [2022]).
Questo lavoro ha rafforzato la Nuova Sintesi Neoclassica discussa in Goodfriend e King [1997] e Snowdon e Vane [2005]. L'idea è di analizzare la politica monetaria aggiungendo prezzi rigidi o aggiustamenti frizionali in modelli di ottimizzazione altrimenti standard della tradizione del Ciclo Economico Reale (RBC). L'obiettivo è stato quello di generare complementi micro-fondati credibili alle equazioni di domanda aggregata e offerta aggregata della vecchia economia keynesiana.
In questo obiettivo la letteratura ha finora fallito. L'inflazione, sicuramente la variabile chiave nell'economia neo-keynesiana, è eccessivamente lungimirante, infatti secondo l'attuale modello di riferimento non ha una persistenza intrinseca e non viene identificata senza shock del tutto ad hoc. Inoltre, non sembra esserci alcun trade-off a breve termine tra inflazione e occupazione o stabilizzazione della produzione battezzata la Divina Coincidenza da Blanchard e Galí [2007], così le banche centrali possono "mettere a punto" qualsiasi fluttuazione inefficiente.[2] Dimostro che tutti questi risultati sono frutto di soluzioni errate al modello di riferimento Calvo. Il compito di questo articolo è di costruire la formulazione corretta più semplice possibile dell'economia neo-keynesiana che possa servire da piattaforma per futuri lavori teorici, empirici e matematici.
Il documento ha tre compiti complementari. Il primo è scoprire le proprietà dinamiche della curva di Phillips neo-keynesiana. Il secondo è delinearne le principali implicazioni econometriche e la logica teorica. Infine, analizzerò se e in quali condizioni esiste una soluzione a un DSGE e fornirò risposte parametriche precise per il modello di riferimento.
Il benchmark New Keynesian Phillips ottenuto linearizzando il modello Calvo in ZINSS non rappresenta le proprietà dinamiche del sistema stocastico sottostante, per quanto piccoli siano gli shock. Ad eccezione della dispersione dei prezzi, le dinamiche in ZINSS sono orientate al futuro per tutti gli ordini di approssimazione. Al contrario, il sistema non lineare sottostante è persistente con probabilità uno, caratterizzato da ritardi di inflazione e termini di shock. È già noto che un sistema ibrido è pertinente quando c'è un'inflazione di tendenza diversa da zero (vedere Damjanovic e Nolan [2010], Coibion e Gorodnichenko [2011], Ascari e Sbordone [2014] e Kurozumi e Van Zandweghe [2017] e Qureshi e Ahmad [2021]). Ciò può essere formalizzato come la biforcazione non stocastica considerando i limiti dell'approssimazione lineare quando l'inflazione tende a zero. Dimostro la biforcazione stocastica mostrando che quando l'inflazione è esattamente zero, i sistemi stocastici adiacenti hanno proprietà dinamiche equivalenti, quindi l'inflazione di tendenza descrive il comportamento attorno a ZINSS.
La soluzione corretta richiede passaggi di sostituzione all'indietro, dove compaiono i termini di ritardo. La differenza tra i due sistemi è chiamata singolarità di attraversamento del muro. Formalmente, il confine tra le due soluzioni del modello di riferimento è una superficie bidimensionale con un muro unidimensionale che conduce a un buco tridimensionale. Informalmente, è formato equiparando i diversi passaggi tra le due soluzioni e integrando. Il muro è l'uguaglianza di inflazione necessaria per collocare l'economia all'interno della superficie singolare. La seconda componente è un'uguaglianza che collega inflazione, costi marginali ritardati e attuali, che riflette un passaggio di sostituzione all'indietro mancante in ZINSS. Riflette il motivo di sostituzione intertemporale presente nell'ottimizzazione scaglionata e quindi un cambiamento nel meccanismo di trasmissione monetaria. Introduce un canale di spinta dei costi nella curva di Phillips, quindi la Banca centrale o le condizioni finanziarie influenzano direttamente le decisioni sui prezzi delle aziende. La terza dimensione del buco (interno) rappresenta l'annullamento dello shock della domanda con il suo ritardo.
Questi cambiamenti sembrano adattarsi a un'ampia varietà di prove esistenti. Barth III e Ramey [2001], Gaiotti e Secchi [2006] e Chowdhury et al. [2006] forniscono un supporto impressionante per un canale di costo della politica monetaria. Queste forze sembrano essere particolarmente forti per le aziende in difficoltà finanziarie secondo Antoun de Almeida [2015], Gilchrist et al. [2017], Meinen e Roehe [2018], Palmén [2020], Abbate et al. [2023] e Montero e Urtasun [2021].[3] L'impatto sui coefficienti della curva di Phillips è drammatico. La reattività dell'inflazione al divario di produzione diminuisce, in genere da quasi uno a circa zero. Il coefficiente di inflazione ritardata è sempre maggiore di quello dell'inflazione attesa. Questi risultati concordano con recenti stime empiriche tra cui Fuhrer [2006], Mavroeidis et al. [2014], Ball e Mazumder [2020], Hindrayanto et al. [2019], Bobeica e Jarociński [2019], Hooper et al. [2020], Zobl e Ertl [2021] e Ball e Mazumder [2021].[4] [5]
Tutta l'analisi è supportata da una rigorosa teoria dell'equilibrio stocastico derivata dalla teoria ergodica, la branca della matematica che si occupa del comportamento a lungo termine dei sistemi dinamici. Un equilibrio stocastico è lo stato dell'economia odierna che implica che la probabilità di qualsiasi evento futuro sia uguale alla sua media (temporale) di lungo periodo. Fondamentalmente, sono in grado di costruire questo equilibrio in modo esplicito.
Esiste una vasta letteratura in economia e discipline correlate che utilizza la teoria dei processi ergodici per dimostrare l'esistenza e spesso anche l'unicità dell'equilibrio generale (vedi ad esempio Stokey [1989], Hopenhayn [1992], Hopenhayn e Prescott [1992], Stachurski [2002], Li e Stachurski [2014], Kamihigashi e Stachurski [2016], Brumm et al. [2017], Açıkgöz [2018], Borovička e Stachurski [2020], Marinacci e Montrucchio [2019], Kirkby [2019], Hu e Shmaya [2019], Light e Weintraub [2022] e Pohl et al. [2023]). Tutti questi risultati sono limitati a piccoli modelli privi di caratteristiche, come l'accumulazione endogena di capitale e lavoro o la rigidità nominale, di interesse primario per i macroeconomisti applicati.[6] Questo articolo è il primo a definire con precisione le condizioni di equilibrio di lungo periodo per un modello stocastico non lineare senza soluzione in forma chiusa, in variabili di immediato interesse economico. Nessuno ha affrontato la criticità della possibilità che se un modello non soddisfa determinate condizioni non abbia alcuna soluzione.
Fornisco una statica comparata ad ampio raggio sotto ipotesi deboli. A differenza dei risultati precedenti, che si basano su restrizioni globali, i miei sfruttano l'equilibrio stocastico che mi consente di dedurre le caratteristiche globali dalle proprietà locali dello stato stazionario.[7] Inoltre, sono in grado di intraprendere nuovi esperimenti, confrontando qualsiasi stato stazionario stocastico con la sua controparte non stocastica. Il suo significato matematico è affrontato nella prossima sezione. Ulteriori progressi in quest'area potrebbero derivare come sottoprodotto di legami più forti con la matematica.
I macroeconomisti sono da tempo consapevoli che le approssimazioni prese in stati stazionari non stocastici potrebbero non essere accurate o rappresentative in modo dinamico, in particolare quando si considerano i mercati finanziari e i premi di rischio. Da Coeurdacier et al. [2011] e Juillard [2011] è stato comune includere l'effetto dei termini di deviazione di ordine superiore quando si calcola l'equilibrio da cui vengono analizzate le perturbazioni. L'attenzione principale è stata naturalmente sui mercati finanziari e sui movimenti dei premi di rischio in particolare. Ascari et al. [2018b] è il neo-keynesiano più notevole finora. Il concetto di equilibrio stocastico qui formalizza e chiarisce queste idee.
L'equilibrio stocastico costituisce una descrizione probabilistica completa di un'economia. Ciò conferisce loro una proprietà di unicità intrinseca per i sistemi guidati da shock continui. Ciò si estende al percorso futuro probabilistico, che corrisponde alla definizione di equilibrio ricorsivo nella precedente economia neo-keynesiana e alla soluzione a tempo infinito del gioco del campo medio con rumore comune in matematica. Dimostro anche che esiste una forma di spazio di stato di dimensione finita equivalente per i modelli neo-keynesiani di riferimento, paragonabile alle precedenti definizioni dell'economia classica (vedere Prescott e Mehra [1980] e Mehra [2006]). Questa tecnica è fondamentale per l'analisi qui ed è destinata ad avere un'ampia applicazione.
Questo sorprendente risultato è tuttavia accompagnato da un potente inverso. I modelli che i macroeconomisti pensavano in precedenza avessero equilibri multipli in realtà non ne hanno nessuno. In particolare per una classe standard di modelli DSGE, quando il valore limite di un'approssimazione lineare attorno al suo equilibrio stocastico è indeterminato, ciò che accade in realtà è che le aspettative di una o più variabili lungimiranti nel modello non lineare sottostante stanno esplodendo. Questo perché l'ottimizzazione sottostante esploderà e il benessere crollerà ogni volta che ci si aspetta che il modello raggiunga uno dei confini. Questo punto è più ovvio quando ci sono troppi autovalori al di fuori del cerchio unitario e una variabile di stato determina l'esplosione. In effetti, questa è l'unica barriera a una soluzione del modello Calvo attorno a ZINSS, ribaltando la saggezza attuale. In queste situazioni dovremmo pensare al modello DSGE come a un errore di specificazione, allo stesso modo in cui gli econometristi vedono una correlazione tra variabili non stazionarie come statisticamente spuria.[8]
Il risultato reinterpreta le note condizioni di autovalore di Blanchard e Kahn [1980]. Il requisito per l'esistenza di una soluzione al modello non lineare è la condizione di unicità valutata attorno allo stato stazionario stocastico. Il mio approccio generalizza le tecniche di linearizzazione esistenti. L'approssimazione lineare non stocastica è il limite dell'approssimazione stocastica quando gli shock diventano arbitrariamente piccoli. Pertanto le tecniche di linearizzazione esistenti sono genericamente (lontano dai punti di biforcazione) corrette, confermando l'intuizione esistente da un diverso esperimento asintotico. Lontano dal piccolo limite di rumore, l'approssimazione lineare stocastica presenta coefficienti stocastici. Questo perché la derivata allo stato stazionario stocastico presenta aspettative di funzioni non lineari. Ciò crea nuove sfide tecniche, che discuto. La semplicità e la comparabilità con i lavori passati motivano l'attenzione sui piccoli limiti di rumore, nella parte quantitativa.
Contrariamente all'opinione corrente, Rotemberg e Calvo non sono mai equivalenti in equilibrio stocastico. Infatti, non ci sono impostazioni per la regola di politica standard in cui entrambi esistono. Questo perché Rotemberg non è influenzato dalla singolarità che ha un impatto su Calvo. Questa equivalenza è stata la motivazione principale per l'utilizzo del prezzo Rotemberg, sebbene significhi che i risultati derivati dal benchmark esistente potrebbero essere considerati pertinenti al modello Rotemberg. Questa, piuttosto che l'effetto dei termini di ordine elevato, è la probabile spiegazione delle differenze di prestazioni nei metodi di soluzione globale (vedere Leith e Liu [2016]).
Un sistema a doppio limite emerge a seconda che la dispersione dei prezzi sia considerata di primo o secondo ordine attorno a ZINSS. Questa situazione è chiamata polidromia. La dispersione dei prezzi di primo ordine (∆) riflette un regime di politica volatile. Il regime non volatile emerge quando gli shock medi sono molto piccoli. Più in generale, ∆ può essere visto come rigidità reale, nel senso di Ball e Romer [1990], l'effetto della rigidità dei prezzi sull'economia flessibile. Ciò suggerisce che la sola rigidità nominale potrebbe essere sufficiente per modellare le dinamiche dell'inflazione, ribaltando una corrente di pensiero iniziata con Ball e Romer [1991].
Se siamo disposti a concentrarci sul vicinato di ZINSS, un vantaggio del mio approccio rispetto all'inflazione di tendenza è che posso minimizzare o rimuovere completamente il ruolo della dispersione dei prezzi. A valori empiricamente rilevanti, la dispersione dei prezzi è in aumento e convessa nell'inflazione. L'equilibrio stocastico peggiora il problema, in linea con le stime empiriche dei modelli DSGE (vedi Ascari et al. [2018b]). Tuttavia, le prove microeconomiche suggeriscono in genere una relazione molto più attenuata tra dispersione dei prezzi e inflazione a bassi livelli positivi (vedi Gagnon [2009], Coibion et al. [2015], Wulfsberg [2016], Nakamura et al. [2018], Alvarez et al. [2018], Sheremirov [2020], Anayi et al. [2022] e Adam et al. [2023]). In generale, coerentemente con questi risultati, se la dispersione dei prezzi si verifica nell'approssimazione lineare attorno a ZINSS, è indipendente dalla dinamica di primo ordine dell'inflazione. Inoltre, l'approssimazione sarà meno lungimirante rispetto alla sua controparte di inflazione di tendenza positiva (Ascari e Sbordone [2014]). È stata sviluppata una piccola letteratura che esamina le estensioni del modello di riferimento che forniscono previsioni meno estreme per quanto riguarda la dispersione nominale (vedere Bakhshi et al. [2007], Kurozumi [2016], Kurozumi e Van Zandweghe [2016] e Hahn [2022]). Insieme, possono giustificare la considerazione di un tasso di inflazione più vicino allo zero rispetto, ad esempio, al comune obiettivo di inflazione della Banca centrale del due percento, senza ricorrere a considerazioni controfattuali, come l'indicizzazione completa dei prezzi nominali.[9]
L'analisi qui produce profonde implicazioni econometriche. In primo luogo, il modello strutturale e gli shock della domanda sono identificati con una regola politica standard sotto l'ipotesi nulla che il modello sia corretto.[10] Ciò rimedia a un'incoerenza fondamentale nel quadro esistente. Una persistenza aggiuntiva e un grado di simmetria nei coefficienti dovrebbero migliorare le proprietà dei piccoli campioni.
Il lavoro esistente è distorto. Sotto l'ipotesi nulla che il modello sia corretto, c'è una dualità econometrica; un'equivalenza tra vincoli sulla ri-ottimizzazione dell'impresa rappresentativa e restrizioni statistiche sull'econometrico che cerca di adattare il modello della curva di Phillips ai dati. L'equilibrio stocastico offre nuove fonti di identificazione. Questa nuova teoria promette nuove sfide con un legame più stretto tra la modellazione macroeconomica e la teoria econometrica.
Il documento contiene risultati potenti per tutti gli aspetti della critica di Lucas Jr [1976]. Da un lato, il risultato di equivalenza originale è sbagliato. I modelli keynesiani contengono variabili ritardate che riflettono un'ottimizzazione sfalsata che il quadro neoclassico non contiene. D'altro canto, la nozione di un compromesso in cui l'attivismo monetario provoca un movimento avverso nel programma della curva di Phillips è confermata dall'analisi dei coefficienti. Infatti, mostro che la curva di Phillips del prezzo di riferimento è spuria nel senso che la sua pendenza è zero a una parametrizzazione standard e può essere negativa, il che si adatta al messaggio del suo documento. Il problema risiede nel meccanismo di trasmissione che è interamente intertemporale.
Questa è l'essenza della neutralità dell'output. Laddove le forze intertemporali svaniscono, l'inflazione corrente, come determinata dalla determinazione ottimale dei prezzi, dipende solo dagli incentivi di prezzo passati e presenti, riflessi nel ritardo e nell'aspettativa del vantaggio dell'inflazione. In effetti, al di sotto di questo limite, l'inflazione equivale a metà del suo ritardo e a metà del suo futuro. Queste caratteristiche concordano con la determinazione dei prezzi di Taylor, dove l'inflazione è determinata da una media ponderata dei suoi valori ritardati e futuri, anche con uguale peso sull'inflazione passata e futura. In linea con la neutralità dell'output, i coefficienti sui costi marginali (o il divario di output) sommano a zero, come sotto Calvo. Ciò crea un solido ponte tra microeconomia e macroeconomia, nonché una chiara comunanza tra modelli alternativi.
Inoltre, l'attenzione sulla mappatura tra comportamento micro e macroeconomico torna in primo piano sotto forma di analisi di biforcazione a priori. Ciò implica che il framework precedente non rifletteva veramente i suoi microfondamenti sottostanti, riflessi nei vincoli di ri-ottimizzazione. Infine, possiamo vedere le istanze di non esistenza attraverso questa lente, poiché implicano barriere non banali tra inferenza microeconomica e macroeconomica.
La scomparsa della Divina Coincidenza porta benefici di vasta portata. Rompe la precedente dipendenza da shock di mark-up non intuitivi per spostare la curva di Phillips (vedi Le et al. [2011] e Fratto e Uhlig [2020]). Questi shock sono ampiamente respinti come spiegazioni credibili per le esplosioni inflazionistiche da sondaggi di importanti economisti (vedi Vaitilingum [25 febbraio 2022]), insieme ai controlli dei prezzi delle prescrizioni politiche naturali.[11] Ciò consentirà ai macroeconomisti di evitare di invocare un limite inferiore effettivo (ELB) sui tassi di interesse nominali per generare compromessi politici. Ciò è particolarmente rilevante dopo i recenti aumenti dei tassi di interesse nelle principali economie. Ciò concorda con l’evidenza empirica secondo cui l’ELB non è stato importante nell’ultimo decennio perché il Quantitative Easing (QE) sembrava imitare i tagli dei tassi di interesse, le relazioni macroeconomiche strutturali apparivano stabili e la deflazione era assente, in particolare nel Regno Unito,[12] (vedere ad esempio Wu e Xia [2016], Dahlhaus et al. [2018], Kuttner [2018], Dell’Ariccia et al. [2018], Wu [2018], Matousek et al. [2019], Di Maggio et al. [2020] e Weale e Wieladek [2022] (QE); Auerbach e Gorodnichenko [2017], Garín et al. [2019], Debortoli et al. [2019] e Mertens e Williams [2021] (strutturale).[13] L’indipendenza della Banca centrale è stata sicuramente uno degli esperimenti politici di maggior successo in economia storia (vedi ad esempio Alesina e Summers [1993], Cukierman et al. [1993], Bernanke et al. [1999] Acemoglu et al. [2008], Balls e Stansbury [1 maggio 2017] e Garriga e Rodriguez [2020]). È giunto il momento di fornire un modello di riferimento intuitivo per guidare le deliberazioni quotidiane. La soluzione qui è un primo passo in tal senso, sebbene siano necessari ulteriori studi per comprendere l'effetto degli shock dell'offerta.
Infine, ci sono implicazioni significative della possibilità di una politica inattiva. Da un punto di vista microeconomico può essere visto come un'indicazione di stabilità dell'equilibrio generale senza shock aggregati, contro la rigidità dei prezzi individuali. Ciò potrebbe aiutare a spiegare perché i decisori politici sono stati tradizionalmente indifferenti agli shock microeconomici.
Nel registro macroeconomico ha implicazioni sia per i regimi politici attuali che per quelli storici. I macroeconomisti spesso vedono la stabilizzazione attraverso il prisma del principio di Taylor, che afferma che l'inflazione è controllata aumentando il tasso di interesse reale in risposta alle deviazioni dell'inflazione dall'equilibrio. La regola politica derivata qui implica che non è possibile regolare immediatamente i tassi di interesse per controllare l'inflazione. Ciò richiede cambiamenti graduali di posizione politica. Ciò è in linea con le migliori pratiche della Banca centrale, il cosiddetto "coarse-tuning" (Lindbeck [1992]). Di solito è implementato tramite Inflation Forecast-Targeting (Kohn [2009], Svensson [2010] e Svensson [2012]). È qui che la politica e le proiezioni per la politica futura vengono adattate per produrre un percorso atteso desiderabile per l'inflazione e l'attività reale, coerente con la stabilità a medio termine. Questo è solitamente definito come inflazione prevista e divario di produzione sufficientemente vicino all'obiettivo dopo un lasso di tempo da 18 mesi a 3 anni.[14]
Infine, il risultato della politica è significativo per la nostra comprensione della storia economica. Aiuta a razionalizzare la sopravvivenza di regimi non interventisti come il Gold Standard, dove le "Regole del gioco" proibivano la politica di stabilizzazione attiva (vedi Barsky e Summers [1988], Bayoumi et al. [1997] e Bordo e Schwartz [2009]). In secondo luogo, dovrebbe rendere più facile analizzare ipotesi come la stagnazione secolare (Hansen [1939] e Summers [2015]) che richiedono trappole di liquidità di lunga durata non possibili nell'attuale configurazione dell'agente rappresentativo. Infine, dovrebbe supportare una valutazione quantitativa credibile dei benefici della moderna gestione macroeconomica.
La sezione successiva fornisce una descrizione più dettagliata delle tecniche di dimostrazione adatte a un pubblico tecnico. Inoltre, colloca il documento all'interno della letteratura matematica. Sebbene sia stato progettato per essere accessibile, potrebbe essere saltato dai lettori meno inclini alla matematica.
Autore:
(1) Davide Staines.
Questo articolo è disponibile su arxiv con licenza CC 4.0.
[1] Ciò vale anche per i prezzi online (vedi Cavallo e Rigobon [2016], Cavallo [2017], Gorodnichenko e Talavera [2017], Gorodnichenko et al. [2018] e Cavallo [2018]).
[2] Il termine è spesso attribuito a Walter Heller, consigliere economico capo del presidente Kennedy (vedi ad esempio http://connection.ebscohost.com/c/referenceentries/40422478/fine-tuning-1960s-economics). In origine si riferiva alla politica fiscale in un contesto "Old Keynesian". Lo scetticismo sul concetto era centrale nell'opposizione monetarista alla macroeconomia keynesiana tradizionale, vedi ad esempio Friedman [1968] e Snowdon e Vane [2005].
[3] Sul fronte della sostituzione intertemporale vi è un sostanziale supporto per un’equazione della domanda aggregata intertemporale sia nelle credenze soggettive che nelle preferenze rivelate (vedere Coibion et al. [2023], Dräger e Nghiem [2021], Duca-Radu et al. [2021]), così come la discussione delle precedenti prove microeconometriche nell’Appendice H.1.
[4] Nessuna delle specifiche è direttamente comparabile al modello teorico, il che sottolinea l'importanza della stima strutturale, sebbene Fuhrer [2006] sia il più vicino. Molti usano la disoccupazione piuttosto che il divario di output come variabile forzante. Questo ha un lignaggio augusto che risale a Phillips [1958] e Phelps [1968]. È popolare perché ci sono dati migliori. I due possono essere collegati tramite la legge di Okun, la relazione del ciclo economico tra disoccupazione e deviazioni di output, che appare empiricamente forte (Ball et al. [2013]). Tuttavia, rimane una priorità derivare e testare curve di Phillips salariali micro-fondate.
[5] Molti di questi studi sono in grado di dimostrare relazioni stabili negli ultimi tempi, nonostante il cambiamento strutturale e gli effetti della recente crisi finanziaria (vedi anche Stock e Watson [2020] e Candia et al. [2021]). La persistenza sostanziale dell'inflazione è robusta a diversi livelli di aggregazione, regime politico e ipotesi plausibili sulle tendenze di altre variabili macroeconomiche, per le prove consultare ad esempio Clark [2006], Altissimo et al. [2009], Vaona e Ascari [2012]; O'Reilly e Whelan [2005], Beechey e Österholm [2012], Gerlach e Tillmann [2012]; Cogley e Sargent [2002], Stock e Watson [2016] e Kejriwal [2020].
[6] I risultati di maggior interesse applicato hanno riguardato il modello di riferimento di Krusell e Smith [1998] di accumulazione di capitale in mercati incompleti e rischio aggregato, come Cao [2020] e Pröhl [2023]. Tuttavia, questi contengono un grado di contingenza (e quindi non sono prove di piena esistenza).
[7] Una letteratura sulla statica comparata monotona si è sviluppata attorno a Milgrom e Roberts [1994], Milgrom e Shannon [1994], Milgrom e Segal [2002] e Athey [2002]. Più recentemente, le condizioni di convessità sono diventate popolari seguendo Acemoglu e Jensen [2013] e Jensen [2018]. Infatti, una volta derivato l'equilibrio stocastico, i passaggi successivi sono spesso considerevolmente più semplici di questi risultati o recenti estensioni, con la promessa di applicazioni a un insieme più ampio di modelli.
[8] Consultare Kennedy [2003] per una discussione approfondita e Hamilton [1995] per un'esposizione tecnica. Granger e Newbold [1974] e Phillips [1986] sono importanti documenti originali.
[9] È infatti possibile rimuovere l'impatto della dispersione dei prezzi sulla dinamica dei costi marginali assumendo che il lavoro sia specifico dell'impresa (vedi Coibion e Gorodnichenko [2008] e Eggertsson e Singh [2019]). Trovo questo risultato utile per le esposizioni teoriche, sebbene non del tutto convincente. Tuttavia, non rimedia alla distorsione economica sul benessere dei consumatori. Inoltre, la dispersione nominale tornerebbe naturalmente se la rigidità salariale fosse inclusa in modo Calvo. Infine, i servizi di pubblica utilità, il lavoro sindacalizzato o con salario minimo e le tecnologie di uso generale come IT, trasporti, logistica e infrastrutture per uffici implicano sicuramente una considerevole componente comune della base di costo delle imprese.
[10] Questo perché sotto il null il modello delle aspettative razionali è rumore bianco, quindi non ci sono strumenti validi. I dati delle aspettative soggettive risolvono questo problema.
[11] L'articolo e le risposte effettive sono disponibili ai seguenti indirizzi: https://voxeu.org/article/inflation-market-power-and-price-controls-igm-forum-survey https://www.igmchicago.org/surveys/inflation-market-power-and-price-controls/ Aparicio e Cavallo [2021] analizzano una serie di controlli sui prezzi nei supermercati argentini e scoprono che hanno avuto un effetto limitato sull'inflazione che si è invertito una volta rimossi.
[12] Il canale Fisheriano in cui la deflazione fa salire il tasso di interesse reale è mancato nel recente periodo di bassi tassi di interesse. L'esempio estremo di questa mancanza di fenomeno di deflazione è il Regno Unito. Da febbraio 2009, appena prima che la Banca tagliasse il suo tasso principale a un minimo record dello 0,5% a luglio 2018, immediatamente prima della volta successiva in cui il tasso di base ha superato questo livello, l'indice dei prezzi al consumo è cresciuto a una media annua del 2,55% in più rispetto all'obiettivo imposto del 2%. I dati sui livelli dei prezzi e sui cambiamenti di politica sono disponibili dai siti sottostanti, i risultati sono robusti rispetto a plausibili cambiamenti di datazione https://www.ons.gov.uk/economy/inflationandpriceindices/timeseries/d7bt/mm23 https://www.bankofengland.co.uk/boeapps/database/Bank-Rate.asp
[13] Qualsiasi attrito potrebbe in linea di principio rompere la Divina Coincidenza, Blanchard e Galí [2007] usano la rigidità dei salari reali. Non è chiaro se le banche centrali siano interessate o in grado di correggere i fallimenti reali del mercato oltre ai loro obiettivi di stabilizzazione. È discutibile se questi attriti alternativi siano davvero di primo ordine alla frequenza del ciclo economico. Il miglior candidato sono gli attriti finanziari. Questo è stato un focus particolare dalla Grande Recessione. Tuttavia, questo recente interesse è stato accompagnato da strumenti alternativi (vedi Clement [2010], Hanson et al. [2011], Duncan e Nolan [2015], Aikman et al. [2019] e Kashyap [2020]). Le preoccupazioni finanziarie non erano significative nell'elaborazione delle politiche monetarie presso le principali banche centrali in precedenza, secondo Baxa et al. [2013], Rotemberg [2013], Rotemberg [2015] e Oet e Lyytinen [2017]. In effetti, gli shock finanziari non sembrano essere molto importanti al di fuori dei periodi di crisi, dove sembrano funzionare come gli shock della domanda standard (vedi Mian e Sufi [2014], Muir [2017], Mian e Sufi [2018], Huber [2018], Gertler e Gilchrist [2018], Benguria e Taylor [2020] e Haque e Magnusson [2021]).
[14] I metodi delle serie temporali e la saggezza dei decisori politici suggeriscono che ci vogliono tra 18 mesi e due anni perché un cambiamento nella politica monetaria abbia il suo impatto massimo sull'inflazione. Questo risultato sembra essere robusto attraverso i cambiamenti nei regimi di politica secondo Bernanke et al. [1999] (vedi p 315-320), Batini e Nelson [2001], Gerlach e Svensson [2003] e la recente analisi di Goodhart e Pradhan [2023]. Sul suo sito web la Banca d'Inghilterra avvisa il pubblico in generale che: "La politica monetaria opera con un ritardo temporale di circa due anni". (http://www.bankofengland.co.uk/monetarypolicy/Pages/overview.aspx) Tuttavia, la Banca pubblica previsioni con tre anni di anticipo e parla spesso di "inflazione che torna all'obiettivo entro l'orizzonte di tre anni" coerentemente con una visione a più lungo termine della stabilizzazione e del lavoro empirico di Havranek e Rusnak [2013]. (http://www.bankofengland.co.uk/publications/Pages/inflationreport/infrep.aspx) Le pratiche sono simili in altre importanti banche centrali che mirano all'inflazione.