Diebold - Li improvement

TheBear

Nuovo Utente
Registrato
5/12/11
Messaggi
238
Punti reazioni
7
Ciao a tutta la banda, sono appena rientrato dalle ferie, e leggiucchiando qua e là ho scoperto che il giovane Cren (altro che il giovane Holden, tsè!) si diletta di yield curve forecasting. A questo proposito, mi permetto di consigliarti quello che secondo me è il miglior approccio in senso statistico, se il tuo intento è quello previsivo. Lo trovi descritto in questo paper, ad opera degliautorimedesimi:

http://www.ssc.upenn.edu/~fdiebold/papers/paper55/DRAfinal.pdf

con una succosa estensione del modello originario all'inclusione di fattori macro.

Regards!

TB
 
Per ora gli ho dato solo un'occhiata veloce mentre pranzavo, ma voglio vedere se ho intuito bene: lasciando un attimo da parte la rappresentazione spazio-stato col filtro di Kalman, che richiede un approfondimento ulteriore non esattamente banale, il succo del documento è tritare in un VAR long term yield, slope, curvatura e le tre variabili macroeconomiche CU, FFR e INFL per poi fare i nostri simpatici forecast.

Domanda: com'è che in Diebold e Li si suggeriva AR(1) separati per ciascun fattore latente e adesso abbiamo deciso di mettere tutto nella centrifuga?

Non fraintendermi, io sono un sostenitore dei VAR però la cosa mi suona un po' strana...

@ Sig. Ernesto: sì, è quello che ho usato per il Diebold-Li ed è un documento molto utile; tuttavia al termstrc preferisco lo YieldCurve perchè l'ho trovato molto più flessibile, visto che il termstrc richiede dati accuratamente preparati come vuole lui e produce risultati trattabili in modo fin troppo rigido.

Nel mio modello previsionale ho preferito cucirmi "in casa" gli AR(1) direttamente sul Nelson-Siegel di YieldCurve anzichè usare il pacchetto "tutto compreso ma niente di più".
 
Ultima modifica:
Per ora gli ho dato solo un'occhiata veloce mentre pranzavo, ma voglio vedere se ho intuito bene: lasciando un attimo da parte la rappresentazione spazio-stato col filtro di Kalman, che richiede un approfondimento ulteriore non esattamente banale, il succo del documento è tritare in un VAR long term yield, slope, curvatura e le tre variabili macroeconomiche CU, FFR e INFL per poi fare i nostri simpatici forecast.

Domanda: com'è che in Diebold e Li si suggeriva AR(1) separati per ciascun fattore latente e adesso abbiamo deciso di mettere tutto nella centrifuga?

Non fraintendermi, io sono un sostenitore dei VAR però la cosa mi suona un po' strana...

@ Sig. Ernesto: sì, è quello che ho usato per il Diebold-Li ed è un documento molto utile; tuttavia al termstrc preferisco lo YieldCurve perchè l'ho trovato molto più flessibile, visto che il termstrc richiede dati accuratamente preparati come vuole lui e produce risultati trattabili in modo fin troppo rigido.

Nel mio modello previsionale ho preferito cucirmi "in casa" gli AR(1) direttamente sul Nelson-Siegel di YieldCurve anzichè usare il pacchetto "tutto compreso ma niente di più".

E che cambia?

:)

Mi spiego:

tu stai facendo un forecast. Non sei l'unico a farlo (ovviamente).

Sei sicuro che l'artigianato sia utile in questo caso?:)

E' la storia di Garch e EWMA RM..."chi" usa cosa? ;)
 
E che cambia?
Che almeno so cosa sto facendo! :D

Per certe cose termstrc è una scatola nera, alla fine mi ha sparato fuori gli stessi output di YieldCurve gestito da me ma lo ha fatto con irritante irascibilità ogni volta che volevo deviare dal percorso predefinito pensato dagli autori.

In ogni caso, se la mia interpretazione del documento allegato da TheBear è corretta, YieldCurve è d'obbligo perchè poi bisogna attaccarci la stima di un VAR e le classi di oggetti gestiti da termstrc con ogni probabilità non sono compatibili.
 
Che almeno so cosa sto facendo! :D

Per certe cose termstrc è una scatola nera, alla fine mi ha sparato fuori gli stessi output di YieldCurve gestito da me ma lo ha fatto con irritante irascibilità ogni volta che volevo deviare dal percorso predefinito pensato dagli autori.

Guarda, le scatole nere vanno per la maggiore..e "R" è un impacchettatore.

Se quelli grossi usano la scatola nera, tu usa la scatola nera. Se usano AR di primo ordine usa AR.

Già vuoi prevedere..poi, prevedere quel che prevedono gli altri?

Una riflessione..io manco ho capito a che serve sta cosa(ai fini pratici..teoricamente penso di esserci arrivato)

:D:)
 
Per ora gli ho dato solo un'occhiata veloce mentre pranzavo, ma voglio vedere se ho intuito bene: lasciando un attimo da parte la rappresentazione spazio-stato col filtro di Kalman, che richiede un approfondimento ulteriore non esattamente banale, il succo del documento è tritare in un VAR long term yield, slope, curvatura e le tre variabili macroeconomiche CU, FFR e INFL per poi fare i nostri simpatici forecast.

Domanda: com'è che in Diebold e Li si suggeriva AR(1) separati per ciascun fattore latente e adesso abbiamo deciso di mettere tutto nella centrifuga?

Non fraintendermi, io sono un sostenitore dei VAR però la cosa mi suona un po' strana...

Boh, vediamo. Perché una serie di AR(1) possonoessere interpretati congiuntamente come un VAR su cui sono state operate le opportune restrizioni? Perché l'articolo che ho postato è successivo a quello originale e magari, nell'ambito di un learning by doing, dotte conversazioni alla Penn University abbiano suggerito che forse una dinamica VAR forniva errori di previsione più bassi? Perché, gorsso modo in quegli stessi anni o poco prima, nell'ambito della modellazione della curva cominciava ad affacciarsi l'evidenza empirica (cfr. Monika Piazzesi tra gli altri) che la considerazione di fattori macro espliciti rendeva il modello più robusto? Solo per dare qualche spunto di riflessione eh... oltre non vado, perché tu l'hai leggiucchiato a pranzo, io invece l'ultima volta che l'ho letto sarà stato quattro anni fa. Morale: non mi ricordo un katso o quasi.

TB
 
Perché una serie di AR(1) possonoessere interpretati congiuntamente come un VAR su cui sono state operate le opportune restrizioni? Perché l'articolo che ho postato è successivo a quello originale e magari, nell'ambito di un learning by doing, dotte conversazioni alla Penn University abbiano suggerito che forse una dinamica VAR forniva errori di previsione più bassi? Perché, gorsso modo in quegli stessi anni o poco prima, nell'ambito della modellazione della curva cominciava ad affacciarsi l'evidenza empirica (cfr. Monika Piazzesi tra gli altri) che la considerazione di fattori macro espliciti rendeva il modello più robusto?
Va bene, va bene.

I frullati VAR non mi dispiacciono perchè hanno il vantaggio di accettare gli OLS come stimatore consistente e quindi possono trattare in tempi molto rapidi problemi di grandi dimensioni (naturalmente il rovescio della medaglia è che considerano solo relazioni lineari tra le variabili); sbatterci dentro sei serie storiche di cui tre fattori latenti non dovrebbe dare alcun problema.

Settimana prossima probabilmente gli do un'occhiata e vediamo cosa tiriamo fuori, speriamo non di non ottenere output per cui si renda necessario porre dei vincoli al VAR che ne ho proprio poca voglia.
 
Ultima modifica:
Va bene, va bene.

I frullati VAR non mi dispiacciono perchè hanno il vantaggio di accettare gli OLS come stimatore consistente e quindi possono trattare in tempi molto rapidi problemi di grandi dimensioni (naturalmente il rovescio della medaglia è che considerano solo relazioni lineari tra le variabili); sbatterci dentro sei serie storiche di cui tre fattori latenti non dovrebbe dare alcun problema.

Settimana prossima probabilmente gli do un'occhiata e vediamo cosa tiriamo fuori, speriamo non di non ottenere output per cui si renda necessario porre dei vincoli al VAR che ne ho proprio poca voglia.

Comprensibile. L'importante è che ti sia chiaro come i tre fattori latenti vengono estratti, cioè tramite filtro di Kalman. A margine, osservo che un VAR dove tre serie sono delle "stime" e non dei dati "originali" potrebbe restituire stime un pochino noisy: ma se l'ha fatto Diebold (che btw è quello del Diebold - Mariano test), a me va bene :D

TB
 
Ultima modifica:
In realtà sono quattro perchè, come immaginavo, anche il parametro di forma, cioè λ, è stimato come tempo-variante.

Ammetto che mi ero già portato avanti, anche se coi minimi quadrati e non col filtro di Kalman:

154854d1333719484-un-nuova-strategia-di-trading-system-bull-flattener-img1.png


Onestamente già col VAR e le tre grandezze macroeconomiche penso che se deve funzionare funzionerà, ma sono anche abbastanza onesto da ammettere che non ritengo lo sforzo necessario per inserirci pure residui GARCH premiante in termini di rapporto tra benefici e sforzo :D

.

.
 
Sono abbastanza d'accordo Cren. A priori, direi che residui effetti di eteroschedasticità dovrebbero poter essere "trascurabili", specie su frequenze mensili. La stima è sempre un trade off tra esigenze di miglior fitting e leggerezza computazionale. Direi che in questo caso si può dare mmagior peso al secondo fattore. Il vero "miglioramento" introdotto da Koopman, se non erro, è la formulazione di lambda come quarto fattore latente time-varying. Sfortunatamente, dato che questo entra nelle espressioni dei factor loadings in maniera non lineare, in questo caso bisogna ricorrere a procedure di stime per simulazione, come la simulated maximum likelihood (di cui Koopman inseme a Durbin è stato un precursore) o magari particle filtering for sequential state and parameters learning (Liu e West, 2001).

Buona notte a tutti.

TB
 
Sì sono d'accordo che introdurre il garch e il lambda time varying incasina non poco la stima porando benefici relativi... Ma anche l'introduzione del kalman in DRA porta benefici minimali ma rende tutto più complesso...

Facendo riferimento al paper di koopman la non linearità la tratta con l'extended kalman filter che è un'approssimazione ed è quest ultimo il vero limite del paper...
Probabilmente il modo migliore per stimare sono quelle tecniche che TheBear ha citato ma che sfortunatamente non conosco.
 
Mi scusino..ma sto lambda Diebold e Li lo tengono fisso per un motivo o sono degli sprovveduti???

Domanda da ignorante ovviamente:)
 
Mi spiego da barbiere quale sono:

non sarà che il lambda time varing riduce la già scarsa(mia supposizione) predittività del modello causa volatilità dei fattori?

Così, buttata lì..abbiate pietà se dico caz.zate ho dato una letta veloce :)


(Ho cancellato i links Cren perchè non voglio nulla che possa ricondurre a quel postribolo. In cambio tuttavia, ho posto una domanda che nel postribolo non avrebbero mai fatto, vista la scarsa attitudine a "capire" prima di "esibire". Do ut des..:)..)
 
(Ho cancellato i links Cren perchè non voglio nulla che possa ricondurre a quel postribolo. In cambio tuttavia, ho posto una domanda che nel postribolo non avrebbero mai fatto, vista la scarsa attitudine a "capire" prima di "esibire".
Non sono assolutamente d'accordo, oltre ad essere contrario a queste forme di censura: in primo luogo perchè il destinatario del mio riferimento era .::michele::. che poteva avere tutto l'interesse a leggere certe cose, non era "pubblicità" gratuita ad un altro sito; in secondo luogo sono contrario a forme di censura arbitrarie a giudizio del singolo senza che prima si sia almeno discussa pubblicamente l'opportunità o meno della cancellazione.

Insomma, hai cancellato un mio messaggio potenzialmente utile per un altro lettore perchè tu ritieni che si trovi in un forum di scarsa qualità.

Non va bene :no:

Sinceramente non ho affatto apprezzato questa censura, è il genere di episodi che mi fa passare la voglia di contribuire alle discussioni.

Per me non c'è relazione di preferenza tra le "piazze", scrivo dove leggo argomenti stimolanti e dove penso di poter dare un contributo e/o approfondire le mie competenze.

Spero si tratti di un caso isolato, che non si ripeterà.
Mi scusino..ma sto lambda Diebold e Li lo tengono fisso per un motivo o sono degli sprovveduti???
Grazie Crengi, rispondimi su Diebold Li che mi interessa molto:)
La mia opinione è sempre quella di lasciar parlare i dati il più possibile; quindi Diebold e Li fissano un parametro di firma ex ante sulla base di un buon fitting ma è chiaramente una soluzione non ottimale.

La mia impressione è che, da quando l'econometria si è impossessata della rappresentazione spazio-stato e del filtro di Kalman, cerchi di usarli per qualsiasi cosa, anche dove non strettamente necessari.

Osservando a posteriori i risultati della mia stima tempo-variante di λ, e confrontandoli con le figure allegate al documento di .::michele::., ho notato che effettivamente la stima mediante filtro di Kalman assumendo λ fattore latente è più pulita rispetto alla spezzata che ho prodotto io.

Tuttavia, osservando come λ influisce nel Nelson-Siegel e qual è il range di valori in cui spazia, la mia impressione è che l'impatto di questa soluzione sia realmente minimo: ovvero, se la stima mediante filtro di Kalman fosse anche solo più problematica di copiare una riga di codice e allungasse i tempi di elaborazione in modo spropositato, me ne sbatterei le balle e mi concentrerei molto di più sulle variabili macroeconomiche che possano spiegare il movimento della yield curve (documento di TheBear).
 
Non sono assolutamente d'accordo, oltre ad essere contrario a queste forme di censura: in primo luogo perchè il destinatario del mio riferimento era .::michele::. che poteva avere tutto l'interesse a leggere certe cose, non era "pubblicità" gratuita ad un altro sito; in secondo luogo sono contrario a forme di censura arbitrarie a giudizio del singolo senza che prima si sia almeno discussa pubblicamente l'opportunità o meno della cancellazione.

Insomma, hai cancellato un mio messaggio potenzialmente utile per un altro lettore perchè tu ritieni che si trovi in un forum di scarsa qualità.

Non va bene :no:

Sinceramente non ho affatto apprezzato questa censura, è il genere di episodi che mi fa passare la voglia di contribuire alle discussioni.

Per me non c'è relazione di preferenza tra le "piazze", scrivo dove leggo argomenti stimolanti e dove penso di poter dare un contributo e/o approfondire le mie competenze.

Spero si tratti di un caso isolato, che non si ripeterà.



Allora, sperare non costa nulla, io ad esempio spero che tu non metta più links in direzioni non consentite. Mi fa piacere questo tua fiera di posizione, peccato non averla vista in concomitanza di ben più gravi azioni. Usa tranquillamente i messaggi privati(visto che era indirizzato a michele) e nessuno avrà mai nulla da obiettare:)

In aggiunta, contribuire deve essere un piacere, Se non lo è, non si fa. A poco serve (in questa sede almeno) minacciare più o meno velatamente. Soprattutto quando non si è certi di avere armi cariche:)

La mia opinione è sempre quella di lasciar parlare i dati il più possibile; quindi Diebold e Li fissano un parametro di firma ex ante sulla base di un buon fitting ma è chiaramente una soluzione non ottimale.

La mia impressione è che, da quando l'econometria si è impossessata della rappresentazione spazio-stato e del filtro di Kalman, cerchi di usarli per qualsiasi cosa, anche dove non strettamente necessari.

Osservando a posteriori i risultati della mia stima tempo-variante di λ, e confrontandoli con le figure allegate al documento di .::michele::., ho notato che effettivamente la stima mediante filtro di Kalman assumendo λ fattore latente è più pulita rispetto alla spezzata che ho prodotto io.

Tuttavia, osservando come λ influisce nel Nelson-Siegel e qual è il range di valori in cui spazia, la mia impressione è che l'impatto di questa soluzione sia realmente minimo: ovvero, se la stima mediante filtro di Kalman fosse anche solo più problematica di copiare una riga di codice e allungasse i tempi di elaborazione in modo spropositato, me ne sbatterei le balle e mi concentrerei molto di più sulle variabili macroeconomiche che possano spiegare il movimento della yield curve (documento di TheBear).

La mia opinione è:

i test mi dicono che il modello a lambda fisso sovraperforma il modello a lambda time varing. Ovviamente non li ho fatti io i test. Li ho solo letti.

A voi torna quanto dico o no? E non credi sia overfittante la metodologia proposta?

:)
 
...spero che tu non metta più links in direzioni non consentite.
Da quando non è più possibile allegare collegamenti alle discussioni presenti su altri forum?

Devo essermi perso qualche cambiamento nel regolamento del forum di FOL; scriverò nella sezione apposita per capire meglio :)
i test mi dicono che il modello a lambda fisso sovraperforma il modello a lambda time varing. Ovviamente non li ho fatti io i test. Li ho solo letti.
Credo che l'immagine allegata, estratta dall'appendice della versione "a colori" di Forecasting the Term Structure of Government Bond Yields, risponda in modo esaustivo ai dubbi che abbiamo.

Ovvero, a domanda «Cambia di molto l'efficacia previsiva assumendo un λ fisso anzichè tempo-variante?» risposta (mia libera interpretazione) «Non più di tanto, se deve funzionare funzionerà comunque».

Comunque non credo si corra il rischio di overfitting perchè eventualmente il problema potrebbe porsi con un parametro addizionale, non con una metodologia di stima o un'altra; cioè, se il modello Nelson-Siegel è affetto da overfitting lo è indipendentemente da come scelgo di stimare quel parametro.
 

Allegati

  • img0.png
    img0.png
    84,7 KB · Visite: 163
Indietro