Copula per principianti

  • Ecco la 66° Edizione del settimanale "Le opportunità di Borsa" dedicato ai consulenti finanziari ed esperti di borsa.

    I principali indici azionari hanno vissuto una settimana turbolenta, caratterizzata dalla riunione della Fed, dai dati macro importanti e dagli utili societari di alcune big tech Usa. Mercoledì scorso la Fed ha confermato i tassi di interesse e ha sostanzialmente escluso un aumento. Tuttavia, Powell e colleghi potrebbero lasciare il costo del denaro su livelli restrittivi in mancanza di progressi sul fronte dei prezzi. Inoltre, i dati di oggi sul mercato del lavoro Usa hanno mostrato dei segnali di raffreddamento. Per continuare a leggere visita il link

Provo a dimostrare il mio assioma.

Nel grafico seguente, evidenzio il passare dei giorni tra un il peggior crash giornaliero che un ipotetico longevo investitore (la nonna di Ernesto) ha subito e il seguente (quindi peggiore del precedente)

Giusto per farci due risate abbiamo da poco superato il record dell'87..ergo tutti in campana..:D

(....)
 

Allegati

  • NC.jpg
    NC.jpg
    103,1 KB · Visite: 27
Mi pongo una domanda "universale".
Quante probabilità ho di beccarmi un loss giornaliero dello S&P 500 > di quello messo a segno nell'87?

Ora, se guardo i dati, mai ho avuto un valore negativo superiore a quello del famoso lunedì-

Probabilità nulla.

Se formulo la domanda cambiando termini ma non sostanza

"Quante probabilità ho di beccarmi un minimo > del minimo precedente"

trovo che non sono poi così basse..è già accaduto 8 volte ed esattamente rilevo il 0.10% circa se conto solo le giornate negative, la metà circa su tutto il campione.


Reitero..chiedo scusa se faccio ragionamenti banali ma dovete tener conto della mia estrazione culturale(e sociale)

(..........)
 

Allegati

  • NC.jpg
    NC.jpg
    191,8 KB · Visite: 26

intuivo all’inizio della tua esposizione una correlazione nel ragionamento con la generalizzazione nella distribuzione chi quadrato che ricade nel terzo tipo di pearson sul tuo metodo che porta a stimare il var, ma mi sono perso e non ho approfondito ulteriormente le successive condizioni sui valori standardizzati quindi prendimi con le molle.

controlla l'invarianza di scale e dagli un occhiata a quanto sopra e a Laplace sui minimi quadrati, ricorda inoltre che quando hai a che fare con sottoinsiemi (tribù) in probabilità composta hai indipendenza stocastica con moltiplicazione solo nel caso di una bivariata, in multivariata non è corretto poiché una probabilità congiunta di 5 variabili non è uguale alla moltiplicazione della probabilità delle singole variabili perché non le consideri sempre a coppia. (p(a,b)=p(a)xp(b) ma p(a,b,c,d,e) non è uguale a p(a)xp(b)xp(c)xp(d)xp(e)).

Per il tuo assioma sull'inferenza scrivo un altro post ora vado a letto.
 
Visto che mio figlio ha deciso di tenere un party alle 6 approfitto per buttare giù un ultimo pensiero:

Abbiamo visto che due domande apparentemente identiche offrono risposte difformi:

Quante probabilità ho di beccarmi un loss giornaliero dello S&P 500 > di quello messo a segno nell'87?

Ora, se guardo i dati, mai ho avuto un valore negativo superiore a quello del famoso lunedì-

Probabilità nulla.


"Quante probabilità ho di beccarmi un minimo > del minimo precedente"

trovo che non sono poi così basse..è già accaduto 8 volte ed esattamente rilevo il 0.10% circa se conto solo le giornate negative, la metà circa su tutto il campione.


___________________________________________________

Infiliamo lo stesso concetto in una copula per capire (mi riferisco sempre a me) il concetto di "tail dependence" (come lo intendo io) usando valori estremi.

Proviamo a fare la solita domanda usando una coppia "nota"

SP500,DAX

"Quante probabilità ho che SP500 e DAX mi infilino contemporaneamente una perdita maggiore di quella evidenziata nell' ottobre 1987...-25% circa"?

La risposta è zero. Mai avuto un mese così sfigato (ne sono passati 306)

Domanda "tail dependence":

"Quante probabilità ho che SP500&DAX mi superino, contemporaneamente, il minimo che entrambi hanno messo a segno precedentemente"?

Surprise, lo hanno già fatto 3 volte. Ho l'1.77% se considero solo i giorni negativi, lo 0.39% se considero l'intero campione. E sono passati 306 mesi dall'ultima volta.

Nulla una fava direi:)

Questa a mio avviso potrebbe essere definita "TAIL CORRELATION" o Dipendenza per eventi estremi-

Mi aspetta una giornata al parco..quando posso provo a modellare tempo, probabilità e valori puntuali e vediamo che esce fuori con le nostre 5 banchette.

Chiedo sempre scusa..sono un barbiere ignorante e burlone ma mi piace capire:).



.
 

Allegati

  • Joker.jpg
    Joker.jpg
    190,7 KB · Visite: 26
Prendiamo le nostre 5 banche e calcoliamo la probabilità di "tail risk events" congiunta.

ipotizziamo per comodità quattro tipi di evento:

  1. Light
  2. Medium
  3. Heavy
  4. Extreme

I grafici ed i valori nell'ordine esposto:)

(......)
 

Allegati

  • Extreme.jpg
    Extreme.jpg
    132,6 KB · Visite: 25
  • Heavy.jpg
    Heavy.jpg
    90,6 KB · Visite: 21
  • Medium.jpg
    Medium.jpg
    90,4 KB · Visite: 22
  • Light.jpg
    Light.jpg
    67,9 KB · Visite: 26
Do per scontato che tutti conoscano la legge 0-1 di Kolmogorov.

Nel caso così non fosse, Kolmogorov's zero

che è alla base della E(rnesto) Copula.

(.....)

:D
 
  1. Light Tail Event= probabiltà congiunta che le nostre 5 banche mettano a segno, contemporaneamente, una perdita >25% della più brutta, recente perdita nella loro storia.
  2. Medium Tail Event= probabiltà congiunta che le nostre 5 banche mettano a segno, contemporaneamente, una perdita >50% della pù brutta , recente perdita nella loro storia.
  3. Heavy Tail Event= probabiltà congiunta che le nostre 5 banche mettano a segno, contemporaneamente, una perdita >75% della pù brutta , recente perdita nella loro storia.
  4. Extreme Tail Event= probabiltà congiunta che le nostre 5 banche mettano a segno, contemporaneamente, una perdita >100% della pù brutta , recente perdita nella loro storia.

Abbandoniamo per un attimo le 5 banche e torniamo a DAX,SP500

Calcoliamo la E-Copula Prob per Medium Tail Event e Extreme Tail Event

Gia che ci siamo allego la Tail Similarity in verde con le due curve di prob calcolate come sempre (sull'intero campione e solo sui giorni che hanno visto le serie chiudere negative)

Tenete presente che Dax e SP500 presentano una "joint tail risk dependence" completa Sono veramente legati a mio avviso :)

Per Paolo:Zero-one law - Encyclopedia of Mathematics

Grafici nell'ordine esposto:)

Musica:

 

Allegati

  • ECopula.jpg
    ECopula.jpg
    108 KB · Visite: 24
  • ECopula2.jpg
    ECopula2.jpg
    100,3 KB · Visite: 22
Una premessa che mi appunto questa sera onde concludere con il listato e ulteriori riflessioni domani.

Credo si debba riflettere seriamente se adottare "winsorised series" nella costruzione di copule. Gli eventi di coda possono accadere per motivi non sempre riconducibili ad eventi adatti ad essere inclusi. E' una mia personale opinione sulla quale sto meditando:

A domani, facile la avevo promessa e facile (alla fine) sarà.

Winsorising - Wikipedia, the free encyclopedia

(.......)
 
(........)
 

Allegati

  • ECopula.jpg
    ECopula.jpg
    100,8 KB · Visite: 28
Allora, come avrei pensato di risolvere il problema:

Vglio stimare la probabilità congiunta relativa alle 5 banche cui sopra di subire un Tail Risk Event pesante.

"Pesante" lo identifico arbtrariamente pari al 76% del peggior loss subito dalle 5 banche.

Se, se..tutte e 5 le banche mi mettono a segno una perdita maggiore della soglia cui sopra nella stessa settimana (o giorno, o mese), in base a quanto osservo sono sicuramente in presenza di una Tail Dependence.

Il listato si condensa in un paio di righe, l'ho già inviato a Paolo che spero lo controlli e, se ritenuto corretto, possa tradurlo per excel (come Cren, se lo ritiene corretto e conforme al concetto di Copula empirica che stiamo affrontando, potra tradurlo in "R")

Caricate le 5 Serie:


sec:=Security("C:\ftse mib 40\bmps.mi",C);R1:=100*Log(SEC/Ref(SEC,-1));sec:=Security("C:\ftse mib 40\bp.mi",C);R2:=100*Log(SEC/Ref(SEC,-1));sec:=Security("C:\ftse mib 40\isp.mi",C);R3:=100*Log(SEC/Ref(SEC,-1));sec:=Security("C\ftse mib 40\ucg.mi",C);R4:=100*Log(SEC/Ref(SEC,-1));
sec:=Security("C\ftse mib 40\mb.mi",C);R5:=100*Log(SEC/Ref(SEC,-1));


lb:=Input("Tail Event % Congiunto:",-100,100,76);lb:=lb/100;
fissiamo la soglia che identifica la "gravità" dell'evento

lst:=Lowest(r1);lst*lb; Calcoliamo il minimo (pari valore di soglia imposto) toccato da bmps in questo caso e lo plottiamo

mp1:=If(r1<Ref(lst*lb,-1),1,0); Calcoliamo la marginale identificando l'evento "minimo> minimo precedente", il nostro "Tail Event"

***** ripetiamo per le rimanenti serie*****

lst:=Lowest(r2);lst*lb;
mp2:=If(r2<Ref(lst*lb,-1),1,0);


lst:=Lowest(r3);lst*lb;
mp3:=If(r3<Ref(lst*lb,-1),1,0);


lst:=Lowest(r4);lst*lb;
mp4:=If(r4<Ref(lst*lb,-1),1,0);

lst:=Lowest(r5);lst*lb;
mp5:=If(r5<Ref(lst*lb,-1),1,0);

dt:=If(r1<0 AND r2<0 AND r3<0 AND r4<0 AND r5<0,1,0); Contiamo i giorni che hanno visto le 5 serie chiudere negative.


Cum(mp1*mp2*mp3*mp4*mp5)/Cum(1)*100; Calcoliamo la probabilità congiunta. Se abbiamo dati allineati e puliti li troviamo già "in riga" ed è sufficiente moltiplicare il valore binaro assegnato ad ognuna di esse, cumularlo e dividerlo per il numero di osservazioni (l'intero campione in questo caso)


Cum(mp1*mp2*mp3*mp4*mp5)/Cum(dt)*100; Come sopra ma tenendo conto dei soli giorni "negativi"

Deduciamo (guardando il grafico sopra) che:

in base all'ampiezza dello storico prescelto le 5 banche hanno una probabilità congiunta di subire un "Heavy Tail Event" , che possiamo identificare in una perdita minima per ognuna di esse compresa tra un valore > -14%circa ed un valore >-36% circa pari a

0.15% su tutto il campone

0.67% se considero i girni negativi per tutte.

Perchè uso > >; perchè non credo di fare un'operazione sbagliate ipotizzando una perdita media "minima" pari alla media dei 5 valori negativi rilevati.

Noterò che, alzand la soglia ho probabilità nulla (ovvero mai è accaduto che abbiano messo a segno perdite >76% del loro peggir loss) , diminuendo la soglia e diminuendo la "gravità" dell'evento, osserverò una maggiore dipendenza e maggiore(ovviamente) Joint Tail Risk Prob.

Il tutto, si infila in una matrice di Tail Similarity (Cosine Similarity..che nell'esempio Dax Sp500 è calcolata dinamicamente) e può venir utilizzato per scopi che andremo ad esaminare in seguito.

Intanto, attendo correzioni prima di proseguire..mancano ancora un sacco di cose..il tempo..maledetto tempo...:)

Spero sia chiaro che la "probabilità nulla" assoluta è esclusa. Come deve essere.


Musica:


nb:Dal teorema di Sklar , soddisfatto da quanto sopra, abbiamo che:

The theorem also states that given F(x1,x2), the copula is unique on Range(F1)*Range(F2)
, which is the Cartesian product of the ranges of the marginal CDF’s.
 
Ultima modifica:
nb2: quanto sopra, che amplierò in seguito, ovvero l'utilizzo dello sliding lowest per stimare la dipendenza di coda, è una metodologia originale. Non la trovate in alcun paper.

Ho letto molto su queste copule e tra i tanti spunti validi risiedono notevoli banalità concettuali.

Come per tutto credo.

Come sempre imputo la colpa a questi softwares moderni che offrono in 4 e 4 8 un cibo precotto standardizzato. Una pietanza da mensa aziendale che sa di tutto ma alla fine di niente.

Opinione personale.

Fatevi avanti con le correzioni!!!:)
 
Non tutti insieme!

Usate Matlab!
 
perchè non credo di fare un'operazione sbagliate ipotizzando una perdita media "minima" pari alla media dei 5 valori negativi rilevati.

il parametro dello stimatore puntuale non ho chiaro. ho limitazioni "binarie" e non capisco come distingui gli addendi nella partizione tra 5 elementi. anche se li consideri si o no (1-0) come differenzi una probabilità tra una del 76% e quattro al 51% se sono sotto l'ipotesi iniziale medium. (i>50%)?
 
Sai Alex che non capisco cosa chiedi?:)
 
in base all'ampiezza dello storico prescelto le 5 banche hanno una probabilità congiunta di subire un "Heavy Tail Event" , che possiamo identificare in una perdita minima per ognuna di esse compresa tra un valore > -14%circa ed un valore >-36% circa pari a..

mi puoi spiegare questo?
 
in base all'ampiezza dello storico prescelto le 5 banche hanno una probabilità congiunta di subire un "Heavy Tail Event" , che possiamo identificare in una perdita minima per ognuna di esse compresa tra un valore > -14%circa ed un valore >-36% circa pari a..

mi puoi spiegare questo?

Ma è semplice!

Poichè -14% è il minimo migliore e -36% il peggiore, il Tail event che vedrà le 5 banche superare contemporaneamente i propri minimi dovrà necessariamente essere > del minimo migliore e > del minimo peggiore. Quindi, come minimo ci beccheremo una perdita media pari alla media degli ultmi 5 minimi..

Era un gioco di parole per evdenziare ancora una volta che :

stabilità l'impossibilità di ottenere una probabilità nulla minimo > minimo precedente..è illusiorio ritenere che possa esistere fissando ad esempio una soglia congiunta pari a -30% come nell'esempio fatto con Cren.

Chiaro? SPero di sì:)
 
Ma è semplice!

Chiaro? SPero di sì:)

mi devo essere spiegato male...approfondisco. parli di copule emipiriche quindi ragiono di conseguenza. aiutatemi a capire dove sbaglio. devi dare uno stimatore alla probabilità congiunta per vedere il comportamento della frequenza di ogni elemento. quando calcoli la probabilita congiunta delle marginali non puoi moltiplicare perchè non è una bivariata e perdi indipendenza stocastica non considerando gli addendi della partizione.

Giustamente per semplificare si considerano le variabili in pesi equiparati se superano una soglia (rientrare in heavy tail risk con una probabilità =76%) ma sui quantili la storia cambia anche se consideri i 5 elementi equiparati, perchè le partizioni di 5 sono 7 (5 = 4 + 1 = 3 + 2 = 3 + 1 + 1 = 2 + 2 + 1 = 2 + 1 + 1 + 1 = 1 + 1 + 1 + 1 + 1) nel tuo caso mi consideri solo l’ultima mentre ne escludi 6 con gli addendi (il peso che hanno preso come gruppo). Di questi sei devi considerare che la “somma”, ad esempio di 3, è rilevante su 1.

Ora.. lebesgue ha la sua funzione di densità e sklar insegna che la copula può essere utilizzata con qualsiasi distribuzione congiunta e ogni copula può essere combinata con qualsiasi distribuzione marginale per ottenere una distribuzione multivariata, ergo, le copule possono correlare qualsiasi dato che gli viene dato in pasto quindi il lavoro è sulla logica che sta a monte della funzione degli scalari sul solito vettore (insieme di borel); avrai cmq un output ma non puoi calcolare la probabilità congiunta delle marginali moltiplicando come in bivariata. Ho provato ad avvisarti col post dell’altra sera forse in malomodo.

Se utilizzi un range non puoi dopo dare una probabilità solo in un caso per campionare tutto il range o meglio la condizione del minimo è molto interessante ma devi creare inferenza adatta per usarlo correttamente con le copule. la mia domanda dava per scontato questo. ti chiedevo appunto quale parametro dello stimatore puntuale consideri perchè è una cosa che puoi risolvere solo a monte con le copule empiriche per evitare che questi calcoli inficiano su un procedimento corretto delle copule, ed era meglio utilizzare questo stimatore (delle marginali) direttamente a priori sullo spazio campionario in esame e successivamente una volta inserito nei risultati da prendere in esame li confronti con la probabilità congiunta (delle marginali) attraverso una copula.

Pensavo di dare una rilevanza a priori del calcolo sulle marginali ma non sono sicuro che vada bene con le empiriche: invece di standardizzare in maniera normale, lavori a priori sul calcolo dei minimi dello spazio campionario prima di plottare i quantili con lo stesso stimatore che usi per indirizzare i quantili nel range ma non con una media.

Visto che hai dato delle condizioni di soglia 1-0 pensavo di “standardizzare la plottazione” winsorizzando a gruppi direttamente le variabili per rientrare nelle condizioni in maniera ottimale e dare questa stima al parametro dello stimatore puntuale indirettamente a priori prima di calcolare le marginali. Questo per evitare che, quando sei agli estremi della soglia di selezione, si creino problemi tecnici che non risolvi sui quantili puoi escludere prima i valori estremi anomali. La relazione di questa distribuzione di probabilità non sono sicuro se dovrebbe fittare bene la copula visto le condizioni a posteriori di range che uscivano, ma non sono sicuro.

Lo stimatore della distribuzione iniziale è pesato più sui gruppi che sui singoli e si ottimizza a priori con ulteriori considerazioni che perfezionano la scelta dello stimatore nella distribuzione di probabilità di un tail event congiunto.

Quando sei agli estremi della soglia possono esserci problemi logici che non risolvi sui quantili facilmente . Ad esempio, una volta che rientrano nel soglia heavy (tra parentesi faccio esempio di medium), prendi a riferimento un minimo di una banca che ha sottoperformato rispetto alle altre. Mettiamo ad esempio 94% (se rientrasse nel medium sarebbe vicino alla soglia del 74,99%, ad esempio 69% ) se le altre banche rientrano sempre all’interno della condizione >75 (>50%) ma sono tutte sono a riferimento su un valore di gruppo poco inerente alla percentuale della banca di riferimento del 94% (69),ad esempio 78%,83%,82.6%76.7%, il valore del minimo assoluto deve essere considerato un valore anomalo a priori nella condizione, nel caso sopra il 94% mentre l’83 % è corretto e il 94% è da scartare in quanto considerato anomalo oppure avrà la sua varianza da 83%. Se una stima di riferimento minima è sbagliata quando le consideri contemporaneamente la copula ti fornisce cmq un risultato che interpreti come corretto.

Osservi quindi una distribuzione cumulata della variabile “anomala” (94%) con la distribuzione cumulata della probabilità che vuoi ipotizzare (normale). Per poter valutare meglio il comportamento delle variabili il minimo di riferimento pùò essere pesato in questa circostanza perché la distribuzione congiunta delle marginali partono successivamente alle condizioni dello spazio campionario. Questo “plotting di standardizzazione” lo fai sempre a monte della distribuzione congiunta e della copula che scegli separata , quindi non complica eventuali trasformazioni. Ma il mio, non sono sicuro, deriva appunto dal fatto che, anche se l’output della copula è compreso in un range, non vorrei rigirarmi tutte le riformulazioni sulla non linearità che avevo scritto post indietro. Ho questo dubbio perchè all’aumentare dell’intervallo di confidenza il grado di ibertà aumenta e anche una distribuzione pesata diventa analoga a una distribuzione normale di gauss e posso farla dialogare correttamente con una copula empirica in un modello lineare. Spero di essermi spiegato meglio.

apro una parentesi, ho riflettuto sul tuo assioma e visto che lo chiedi voglio condividere le mie conclusioni teoriche in modo da permettere ad altri, se ci sono errori, correzioni con controdeduzioni specifiche al mio punto di vista.

Credo che vada fatta una riflessione più ampia prima di modificare la logica del ragionamento e questo non preclude che prima di sperimentare devi essere padrone della materia. Il consiglio ai post sopra di formarsi con analisi semplici, da un’ipotesi iniziale al risultato finale, è costruttivo ed è una cosa che manca anche a me perchè ho una conoscenza misera sulla tipologia di strumento finanziario coerente ad un uso delle copule e sull’analisi di output delle copule. anche se non approvo la limitazione dell’imperativo categorico assoluto che deriva dalle conclusioni di cren condivido quello che dice poiché la parola frequenza che menziona ha una sostanza significativa ed è una considerazione valida da esperimenti testati.

Servono ora delle precisazioni sul valore nominale dello spazio misurabile e dei relativi dati che vengono usati. È una considerazione che ho fatto a priori in questo 3D confrontandomi con alcuni post con remia89s sull’interpretazione che viene data alle copule. Io volontariamente non ho diviso il diagramma sull’inferenza statistica bayesiana o frequentista, perché i calcoli generalmente sono i medesimi ma le domande che devi porti e l’interpretazione dei risultati hanno un grado di libertà differente, ma visto che hai condotto a rifletterci nuovamente faccio un breve approfondimento.

Non sono sicuro se le pappardelle di paolo si riferivano al diagramma o al modello ipotizzato da keywest, ad ogni modo ho cercato di fornire una tela dove poter disegnare questo grado di correlazione con una forma artistica generica: figurativa, astratta o spazialistica. forse erroneamente ma cmq un tentativo. Perché? il problema è porsi le giuste domande per indirizzare il risultato delle copule a rispondere al meglio con un’analisi tecnica corretta.

la copula correlaziona dati senza differenziare probabilità non deterministica lavorando su un unico campo. il punto focale è il valore nominale che ha intrinsicamente un rischio non conosciuto nei dati in esame. Il ragionamento sorgente modella l’importanza di preferenziare l’oggettività dalla casualità, il determinismo dal non determinismo, l’identificabile dal non identificabile, quello che puoi controllare da quello che non puoi controllare. La separazione della scala nominale non è possibile sui dati che abbiamo poiché è integrata e va quindi separata dall’analisi oggettiva con una biforcazione, cercando di stabilizzarla dosando ed escludendo l’incertezza attraverso una selezione degli elementi che durante il tempo ne vengono più affetti. Questa preferenza è temporale e quando l’oggettività è superiore alla non identificabilità, solo attraverso un’ottima analisi le probabilità si spostano a favore. Morale chiamalo come si preferisce ma sicuramente con un vantaggio.

Eliminare totalmente il rischio di mercato non è possibile ma puoi certamente ridurlo eliminando circostanze più rischiose che la copula ti descrive.
 
Credo che vada fatta una riflessione più ampia prima di modificare la logica del ragionamento e questo non preclude che prima di sperimentare devi essere padrone della materia.

[...]

anche se non approvo la limitazione dell’imperativo categorico assoluto che deriva dalle conclusioni di cren condivido quello che dice poiché la parola frequenza che menziona ha una sostanza significativa ed è una considerazione valida da esperimenti testati.
Come già scritto qui, se ti limiti ai dati empirici la probabilità è viziata dalla frequenza nulla di un evento così catastrofico su tre campioni dei cinque considerati.

Per evitare questo inconveniente - guarda il caso - hanno inventato apposta le funzioni di densità di probabilità, e quindi è sufficiente fare il fitting di una GHD, di una HYP o di una NIG per tirare fuori una probabilità da associare a eventi di coda limitatamente a quanto descrive il campione, come già scritto:
Per poter avere una probabilità non nulla, è prima necessario ipotizzare una determinata distribuzione per le cinque banche; in questo caso suppongo che una distribuzione sufficientemente bruttina (GHD, HYP, NIG...) dovrebbe restituire una probabilità molto molto piccola ma comunque diversa da zero per eventi di coda così estremi...
 
evitare questo inconveniente - guarda il caso - hanno inventato apposta le funzioni di densità di probabilità, e quindi è sufficiente fare il fitting di una GHD, di una HYP o di una NIG per tirare fuori una probabilità da associare a eventi di coda limitatamente a quanto descrive il campione, come già scritto:

hi..hi..hi.. fatti una risata anche te:)

credevo fossero strumenti finanziari ..hi..hi..hi.. mi sono confuso con HYG e non ho controllato il resto delle lettere pensando ad una categoria

Una delle applicazioni della minima tail dependence che mi stimola maggiormente è quella su obbligazioni HY.

Non c'è dubbio che uno dei veri vincitori dell'ultimo anno sia stato il segmento delle obbligazioni HY (Figura 1): ETF come il JNK o il HYG hanno reso - dividendi inclusi & reinvestiti - oltre il 16% su base annua.

Allego le performance dei seguenti ETF cui ho aggiunto il dividend yield medio annuo percentuale (Figura 2):
GLD = oro;
HYG = obbligazioni HY + 4.90%;
LQD = obbligazioni IG + 2.90%.
Su quei tre ETF ho poi costruito:
GMV.Portfolio = portafoglio a minima varianza globale;
MD.Portfolio = portafoglio a massima diversificazione;
MTD.Portfolio = portafoglio a minima tail dependence.

io mi riferivo a questo sull'imperativo categorico assoluto..

Al limite potrai quantificare un rischio di tasso, ma non il rischio di insolvenza perché nello storico non troverai niente che vi faccia riferimento (è in parte un problema simile a quello che ha esposto etienne55 nel suo thread su PattiChiari e il VaR RiskMetrics).

E' a questo che servono:
rating
spread CDS
modelli strutturali (e.g. Merton e tutte le varianti sul tema)
modelli in forma ridotta (e.g. Jarrow e Turnbull)
modelli statistici (e.g. Altman, Ohlson ma anche l'uso di NN, SVM etc.)
...
L'output di questi modelli si può ottenere per n emittenti di interesse, come le tue cinque banche, e ha generalmente la forma di una probabilità di insolvenza o di qualcosa riconducibile ad essa.

Successivamente questi output sono modellati dentro una copula per ottenere una probabilità di fallimento congiunta che mai e poi mai uscirà dai prezzi storici dei singoli strumenti.

http://scatterlat.entecra.it/attachments/012_Scatterlat-Cabassi.pdf
http://www.pfaffikus.de/files/books/wiley/rex1/Part2Chapter1Ex1.R
http://www.pfaffikus.de/files/books/wiley/rex1/Part2Chapter1Ex2.R
Pfaffikus

ho provato a fare una ricerca sopra ma sembra roba binaria di R, mi vuoi dire che sono le trasformazioni di integrali di probabilità dedicate ai quantili per un tipo di distribuzione non normale sulle variabili? se si, per quale tipo di distribuzione continua? puoi spiegarmi in breve? con una copula empirica non serve per forza una distribuzione normale sulle variabili? quindi anche la funzione equivalente di densità deve essere normale sulle marginali, continua ma normale, dove sbaglio?
 
Ultima modifica:
ho provato a fare una ricerca sopra ma sembra roba binaria di R, mi vuoi dire che sono le trasformazioni di integrali di probabilità dedicate ai quantili per un tipo di distribuzione non normale sulle variabili? se si, per quale tipo di distribuzione continua? puoi spiegarmi in breve? con una copula empirica non serve per forza una distribuzione normale sulle variabili? quindi anche la funzione equivalente di densità deve essere normale sulle marginali, continua ma normale, dove sbaglio?
Questo è molto semplice: assodato da decenni che la Normale è inadatta a descrivere la distribuzione dei rendimenti degli strumenti finanziari, e constatati i limiti della t-Student, la distribuzione iperbolica generalizzata (GHD) e le sue particolari declinazioni Hyperbolic (HYP) e Normal Inverse Gaussian (NIG) hanno i soliti parametri di forma che le rendono più flessibili e in grado di meglio descrivere la p.d.f. dei rendimenti finanziari.

Prova ne è che nell'immagine allegata è rappresentato non solo il confronto con la Normale (e la differenza è evidente!) ma soprattutto il confronto con la densità kernel (cioè non parametrica, indicata nel grafico con «empirical») ed è francamente difficile riuscire a scorgere grosse differenze nella distribuzione.

Se c'è poca differenza tra la distribuzione parametrica e quella non parametrica solitamente la distribuzione scelta descrive bene i dati, quindi in questo caso ci si può azzardare a tirare fuori una probabilità da mettere in copula.

Per quanto riguarda la correttezza, a me risulta che la copula prenda in input qualsiasi marginale, indipendentemente da quale distribuzione sia; quindi, per esempio, posso applicare il quantile della Normale standard a qualsiasi p.d.f. e mettere i quantili nella copula gaussiana senza pormi alcun problema a riguardo (tranne la copula adeguata, ovviamente).

P.S.: il grafico allegato è tirato fuori proprio da uno dei link che hai allegato ;)
 

Allegati

  • Rplot.png
    Rplot.png
    7,3 KB · Visite: 228
Indietro