Comprensione della distribuzione a coda di grasso

Nella parte 1, discutiamo cosa significa per una variabile casuale avere una distribuzione “a coda di grasso”.

Lontano? Grasso?

Per capire la coda grassa, dobbiamo rispondere alle seguenti due domande.

1. Quanto è lontano?
2. Quanto grasso è grasso?

Per parlare della coda, dobbiamo determinare quanto lontano è lontano per decidere quanto lontano dal centro è abbastanza lontano da dirlo una “coda”. In altre parole, da dove inizia la coda? Dipende! Sfortunatamente, non esiste una risposta unica.

Considera la distribuzione normale. Si noti che ci sono due code: destra e sinistra. Se vogliamo descrivere la coda “giusta” della distribuzione da quella deviazione standard dalla media, ad esempio, la parte ombreggiata si riferisce alla coda destra della distribuzione normale.

Figurati. 1

Formalmente, possiamo descrivere la coda come segue:

  • coda destra: P (X>x)
  • coda sinistra : P (X≤ – x)

per un grande valore di ‘x’. Ora, conosciamo il concetto di “coda”.


#For normal distribution with value 'x=a'
a=1
1-pnorm(a) #right tail
pnorm(-a) #left tail

Ogni distribuzione ha una coda?

Pensa alla distribuzione uniforme . Ha una coda? In questo blog, si dice che non ogni distribuzione ha una coda.

Se si desidera che “il comportamento della coda” descriva le caratteristiche del pdf quando ‘x’ diventa grande, le distribuzioni limitate non hanno code. Tuttavia, alcune caratteristiche delle code possono essere quantificate. In particolare, utilizzando limiti e comportamento asintotico è possibile definire la nozione di code pesanti. SAS blog

Spiegherò la distribuzione (esponenzialmente) limitata / non limitata di seguito. Si prega di ricordare a voi stessi della distribuzione uniforme quando si arriva lì!

Perché dovremmo preoccuparci della parte “coda” della distribuzione?

La parte posteriore della distribuzione è stata la principale preoccupazione per la gestione del rischio. Ad esempio, le due misure di rischio più utilizzate per la distribuzione del rendimento o della perdita sono Value at Risk (VaR) e Expected shortfall (ES)

Perché loss not return?

  • la perdita è letteralmente meno (-) ritorno
  • Prendere il limite all’infinito negativo non è intuitivo. Quindi prendiamo il negativo dei valori di ritorno, cioè ruotando la distribuzione sull’asse y.

Basta vedere come la quantità VaR e ES sono correlati a ‘tail’. Non è necessario capire la matematica o il significato dietro di loro.

“Essere consapevoli del fatto che il grafico qui sotto è una distribuzione di perdita non ritorno!”

Figurati. 2 / / Fonte: Ch2, Quantitative Risk Management (di seguito, QRM) di McNeil et al

Pensa alla distribuzione della perdita, L, rendimento equivalente (negativo), su alcune attività in un determinato periodo di detenzione. Per motivi di comprensione, si assume che la variabile casuale di perdite di domani segue la distribuzione normale:

Quindi, siamo in grado di calcolare il VaR nel seguente modo:

Fonte: Note di lezione di Eric Zivot

Attraverso la seconda riga, possiamo facilmente verificare che il VaR sia solo una quantità correlata alla coda grassa. Per maggiori dettagli sul VaR, controllare il capitolo due del libro “Quantitative Risk Management: concetti, tecniche e strumenti” e la nota di lezione di Eric Zivot sul suo sito web.

alpha = 0.95 #significant level
VaR.alpha = qnorm(alpha, mu, sigma)
VaR.alpha = mu + sigma*qnorm(alpha, 0, 1)

Allo stesso modo, possiamo vedere che il deficit previsto è una quantità correlata alla parte di coda della distribuzione:

Fonte: Note di lezione di Eric Zivot

Nella quarta riga, dice “ES è la perdita attesa nella “coda” superiore della distribuzione delle perdite. Simile a VaR, nel caso di distribuzione normale, è conveniente calcolare l’ES ora che è solo una media di distribuzione normale troncata.

Fonte: Appunti di lezione di Eric Zivot

alpha = 0.95
q.alpha.z = qnorm(alpha)
ES.alpha = mu + sigma*(dnorm(q.alpha.z)/(1-alpha))

Se qualcuno è curioso di sapere perché dividiamo per 1-α, questa è solo una costante normalizzante (o fattore di scala) per assicurarsi che l’integrazione della distribuzione di perdita troncata sia una, che è un requisito per essere una distribuzione di probabilità.

Tornando alla storia di ‘tail’, volevo solo sottolineare che le distribuzioni tail sono ampiamente utilizzate come strumento di gestione del rischio.

Quanto grasso è grasso? Quanto è pesante?

Poiché abbiamo capito qual è la “coda” in distribuzione e dove viene utilizzata, ora è il momento di parlare della parte “grassa”. Sappiamo tutti che la distribuzione normale non ha una coda grassa. Invece, ci è stato insegnato a utilizzare la distribuzione student-t e registrare la distribuzione normale durante la modellazione della serie di rendimenti finanziari per tenere conto della proprietà “fat-tail”. Ma abbiamo bisogno di conoscere la definizione di coda grassa. Sfortunatamente, non esiste una definizione universale per il termine grasso.

Cercherò di spiegare la coda grassa nella lingua dell’inglese, del grafico e della matematica. Spero che vi piaccia almeno uno dei tre.

  • Una distribuzione dalla coda pesante ha code più pesanti di una distribuzione esponenziale (Bryson, 1974)
  • Si dice che la distribuzione abbia una coda pesante quando la parte della coda decade più lentamente della distribuzione esponenziale.

Perché esponenziale?

È conveniente utilizzare la distribuzione esponenziale come riferimento. Il pdf della distribuzione esponenziale si avvicina a zero ‘esponenzialmente’ velocemente. Cioè, la coda del pdf sembra (ma si comporta in modo diverso da) la distribuzione esponenziale.

Nel linguaggio grafico,

vi mostrerò 4 diversi grafici che mostrano in che cosa succede, in fondo a destra code di un insieme di distribuzioni diverse, come di seguito:

  • distribuzione Esponenziale (exp)
  • Potenza-legge di distribuzione (PL)
  • distribuzione Normale (N)
  • distribuzione Log-Normale (LN)
  • Studente-distribuzione t
  • distribuzione di Cauchy
  • Levy distribuzione
  • distribuzione di Weibull

io non spiegare ciascuna di queste distribuzioni. Invece, godiamoci il grafico di queste distribuzioni per sentire cosa sta succedendo nella parte di coda. Il primo grafico mostra la parte dell’intero grafico la cui ‘ x ‘ si trova in

Figurati. 5, Codici R per questo grafico è fornito alla fine del documento

Con la figura 5 sopra, non possiamo dire come si comporta la coda. Ma qui ci sono alcune cose che vale la pena menzionare

  • Le distribuzioni Normal, student-t e Cauchy sono distribuzioni a due code. Tutti gli altri sono distribuzioni a coda unica
  • Per PL(2.5) e PL(3.5), c’è un punto di attraversamento vicino a x=1.7, che indica che PL(2.5) ha una coda più spessa.

Diamo un’occhiata a come appare quando ‘x’ si trova in . Tieni presente che i valori nell’asse y diventano molto più piccoli.

Figurati. 6

D: Cosa vedi in questo grafico?

A: La linea più alta avrebbe la coda più spessa! (Ma non del tutto!!!) E vedrete perché!

In anticipo, esaminiamo i fatti importanti della figura 6 sopra.

  • Le distribuzioni normale ed exp(2) stanno strisciando vicino a 0 quando x=5. Soprattutto per la distribuzione normale, il suo valore pdf di 5 deviazione standard è 0.000001486 (=pnorm(5)). Questo è circa 8000 volte più piccolo di quello della distribuzione di Cauchy. In altre parole, gli eventi 5 sigma hanno 8000 volte più probabilità di accadere sotto la distribuzione di Cauchy rispetto alla distribuzione normale.
  • In figura 6, tenere presente che exp (0.2) distribuzione individua modo sopra log distribuzione normale e distribuzioni di legge di potenza. Si prega di verificare come viene invertito nei seguenti grafici dopo aver esteso l’intervallo di valori ‘x’.

Vediamo come appare quando ‘x’ si trova in . Ancora una volta, tieni presente che i valori nell’asse y diventano molto più piccoli.

Figurati. 7
  • Si noti che la linea blu exp (0.2) decade velocemente mentre attraversa gli altri due che sono PL(2.5) e Cauchy. Questo è ciò che significa “decade più lentamente della distribuzione esponenziale”
  • È sorprendente vedere cosa succede vicino a ‘x’ uguale a 100. Il suo valore pdf di PL (1.5) è 0.0005. Non c’è da stupirsi che il primo e il secondo momento(media e varianza) siano infiniti per PL (1.5). Informazioni dettagliate su questo saranno trattate nel prossimo documento. Restate sintonizzati!

Ingrandiamo l’asse y per vedere come si comporta in dettaglio!

Figurati. 8
  • Sorprendentemente, la linea blu exp(0.2) diminuisce incrociando il PL(3.5) e LN(0,1). Inoltre, possiamo vedere che LN(0,1) decade più velocemente di PL(3.5) ora che attraversa il PL (3.5) e va sotto di esso.
  • PL(1.5), PL(2.5) e le distribuzioni dei prelievi non sono nemmeno visualizzate in questo grafico.

Nel linguaggio della matematica,

La distribuzione della coda grassa è una sottoclasse della distribuzione della coda pesante. Significa anche se ogni distribuzione dalla coda grassa è dalla coda pesante, il contrario non è vero (ad esempio, Weibull). Secondo le dispense di Jay Taylor, ha differenziato il pesante e il grasso nel modo seguente.

Definizione di coda Pesante

  • Distribuzione si dice che abbia un destro pesante-coda, se le code sono di “non” delimitata in modo esponenziale

Equazione 1

Si può interpretare come quando ” x ” diventa grande, la velocità aumenta in maniera esponenziale è più veloce della velocità di diminuzione della probabilità pesante di coda a destra. Prendetevi il tempo per pensarci!

Vedere come si collega alla definizione inglese.

  • La funzione di distribuzione di probabilità che decade più lentamente di un esponenziale è chiamata right heavy-tail.

Quando limitato in modo esponenziale?

Se la coda destra pesante non è abbastanza pesante, cioè decade super veloce quando ‘x’ va all’infinito, allora l’equazione 1 converge a zero. L’esempio ovvio è la distribuzione uniforme sopra come abbiamo discusso sopra. Una volta che’ x ‘ supera l’uno, la probabilità di X maggiore di uno diventa zero in modo che sia limitata in modo esponenziale. Un altro esempio popolare è la distribuzione normale. Sia X un normale standard. Disegnare una serie di grafici per i diversi valori lambda per ottenere

Figurati. 3

Possiamo vedere che converge a zero in modo che le code della distribuzione normale siano limitate esponenzialmente.


f_exp = function(x, lambda){return (exp(lambda*x))
cdf_normal = function(x) pnorm(x)
ccdf_normal = function(x) {1-cdf_normal(x)}xs = seq(1,10,length=10000)
plot(xs, f_exp(xs,0.1)*ccdf_normal(xs), type='l', xlab='',ylab='', col='blue', lwd=2)
abline(v=1, lty = 'dashed')
lines(xs,f_exp(xs,0.5)*ccdf_normal(xs), col='purple', lwd=2)
lines(xs,f_exp(xs,1)*ccdf_normal(xs), col='red', lwd=2)
lines(xs,f_exp(xs,1.5)*ccdf_normal(xs), col='orange', lwd=2)
lines(xs,f_exp(xs,2)*ccdf_normal(xs), col='darkred', lwd=2)
lines(xs,f_exp(xs,3)*ccdf_normal(xs), col='darkblue', lwd=2)
grid()
legend(8, 0.15,
legend=c("0.1", "0.5","1","1.5","2","3"), title = "lambda",
col=c("blue",'purple', "red",'orange','darkred','darkblue'), lwd=2, cex=1)

Definizione di coda grassa

  • Distribuzione si dice che abbia un tipo di grasso-coda, se c’è un aspetto positivo esponente (alfa) chiamato la coda indice tale che

Il ‘~’ significa stessa fino a costante. O la parte di coda è proporzionale alla legge di potenza. Precisamente, significa quanto segue.

Fonte: e

Sentiti libero di saltare se la matematica è “pesante/grassa” per te.

Pertanto, la parte di coda delle distribuzioni dalla coda grassa segue una legge di potenza (che è ‘x’ alla potenza di meno alfa). Per coloro che non hanno familiarità con una legge di potere, non preoccuparti ora. Pensa al grafico quando alfa è uguale a due.

Figurati. 4

Ricorda a te stesso che la parte della coda sembra simile alla legge del potere come abbiamo visto nelle figure 5-8 sopra. Spiegherò legge di potere in modo più dettagliato da di questa serie.

Sommario

Abbiamo esaminato il concetto di “coda grassa” in questo documento in modo intuitivo, grafico e matematico. Per comprendere la “distribuzione stabile temperata”, è necessario avere una comprensione fondamentale della coda grassa. Spero che questo documento sia stato utile per migliorare la tua comprensione. Si prega di commentare qui sotto se avete qualunque domanda. Spero che tu sia curioso di sapere cosa verrà dopo. La prossima volta, tornerò con “Journey to Tempered Stable Distribution”


f_exp = function(x, lambda, xmin) {lambda*exp(-lambda*(x-xmin))}
f_power = function (x, k, x_min) {
C = (k-1)*x_min^(k-1)
return (C*x^(-k))
}
f_cauchy = function(x) dcauchy(x)
f_levy = function(x) dlevy(x) # required package: 'rmulti'
f_weibul = function(x) dweibull(x,shape=1)
f_norm = function(x) dnorm(x)
f_lnorm = function(x) dlnorm(x)
f_t = function(x) dt(x,5)
xs = seq(0.1,100,length=1000)plot(xs, f_exp(xs,0.5,0.1),type='l',xlab='',ylab='', col='blue', lwd=2,
main='Distributions on ', cex.main=1,
xlim=c(0,5),
ylim=c(0,2.5))
lines(xs,f_exp(xs,1,0.1), col='purple', lwd=2)
lines(xs,f_exp(xs,2,0.1), col='bisque3', lwd=2)
lines(xs,f_power(xs,1.5, 1), col='red', lwd=2)
lines(xs,f_power(xs,2.5, 1), col='orange', lwd=2)
lines(xs,f_power(xs,3.5, 1), col='darkred', lwd=2)
lines(xs,f_norm(xs),col='black', lwd=2)
lines(xs,f_lnorm(xs), col='darkgreen', lwd=2)
lines(xs,f_t(xs), col='deeppink', lwd=2)
lines(xs, f_cauchy(xs), col='darkblue', lwd=2)
lines(xs, f_levy(xs), col='azure4', lwd=2)
lines(xs, f_weibul(xs), col='springgreen', lwd=2)
abline(v=2, lty = 'dashed')
abline(v=3, lty = 'dashed')
grid()
legend(3.5, 2.5,
legend=c("exp(0.2)", "exp(1)", 'exp(2)', "PL(1.5)", 'PL(2.5)', 'PL(3.5)', 'N(0,1)','LN(0,1)','student-t(5)','Cauchy','Levy','Weibull'),
col=c("blue",'purple', 'bisque3',"red",'orange','darkred', 'black','darkgreen','deeppink','darkblue', 'azure4','springgreen'), lwd=2, cex=0.8)

Jay Taylor, Distribuzione dalla coda pesante (2013), Dispense,

Eric Zivot, Misure di rischio (2013), Dispense

Aaron Clauset, Inferenza, modelli e simulazione per sistemi complessi (2011), Dispense

https://blogs.sas.com/content/iml/2014/10/13/fat-tailed-and-long-tailed-distributions.html

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.