ymmärtäminen Rasvahäntäinen jakauma

osassa 1 käsitellään, mitä tarkoittaa satunnaismuuttujan” läskihäntäinen ” jakauma.

pitkälle? Läski?

läskihännän ymmärtämiseksi on vastattava kahteen seuraavaan kysymykseen.

1. Kuinka kaukana se on?
2. Kuinka rasva on rasvaa?

jotta voidaan puhua hännästä, on määritettävä, kuinka kaukana se on, jotta voidaan päättää, kuinka kaukana keskeltä on tarpeeksi kaukana, jotta voidaan sanoa, että se on ”häntä”. Toisin sanoen, mistä häntä alkaa? Se riippuu. Valitettavasti ei ole olemassa yhtä ainoaa vastausta.

tarkastellaan normaalijakaumaa. Huomaa, että on olemassa kaksi häntää: oikea ja vasen. Jos haluamme kuvata jakauman ”oikeaa” häntää yhdestä keskihajonnasta esimerkiksi keskiarvosta, niin varjostettu osa viittaa normaalijakauman oikeaan häntään.

Kuva. 1

muodollisesti häntää voidaan kuvata seuraavasti:

  • oikea häntä: P (X>x)
  • vasen häntä: P (X≤ – x)

suurelle arvolle ”x”. Me tunnemme ”hännän” käsitteen.


#For normal distribution with value 'x=a'
a=1
1-pnorm(a) #right tail
pnorm(-a) #left tail

onko jokaisella jakaumalla häntä?

ajattele tasajakaumaa yli. Onko sillä pyrstö? Blogissa sanotaan, ettei jokaisella jakelulla ole häntää.

Jos haluat ”hännän käyttäytymisen” kuvaavan pdf: n ominaisuuksia, kun ” x ” kasvaa suureksi, niin rajoittuneilla jakaumilla ei ole häntää. Kuitenkin, joitakin ominaisuuksia hännät voidaan määrittää. Erityisesti rajoja ja asymptoottista käyttäytymistä käyttämällä voidaan määritellä käsite raskas hännät. SAS: n blogi

selitän alla (eksponentiaalisesti) rajatun / ei rajatun jakauman. Muistuta itseäsi tasaisesta jakelusta, kun pääset perille!

miksi jakelun ”häntäosasta” pitäisi välittää?

jakelun häntäosa on ollut riskienhallinnan suurin huolenaihe. Esimerkiksi kaksi eniten käytettyä riskimittaria tuoton tai tappion jakamisessa ovat Value at Risk (VaR) ja Expected shortfall (ES)

Why loss not return?

  • tappio on kirjaimellisesti miinus (-) paluu
  • rajan ottaminen negatiiviseen äärettömyyteen ei ole intuitiivista. Otamme siis palautusarvojen miinuksen, eli käännämme jakauman y-akselin yli.

Katso, miten Suure VaR ja ES liittyvät ”häntään”. Ei tarvitse ymmärtää matematiikkaa tai merkitystä niiden takana.

” huomaa, että alla oleva kaavio on jakauma tappiosta ei palaa!”

Kuva. 2 / / Lähde: Ch2, Quantitative Risk Management (jäljempänä QRM) by McNeil et al

Think about distribution of L, equivalently (negative) return, on some asset over a certain holding period. Ymmärryksen vuoksi oletamme, että huomisen tappioiden satunnaismuuttuja noudattaa normaalijakaumaa:

sitten voimme laskea VaR: n seuraavalla tavalla:

lähde: Eric Zivotin luentomuistiinpanot

toisen rivin kautta voi helposti tarkistaa, että VaR on vain läskihäntään liittyvä Suure. Tarkempia tietoja VaR, tarkistaa luvun kaksi kirjan ”Quantitative Risk Management: Concepts, Techniques and Tools” ja Eric Zivot ’ s luento note hänen verkkosivuilla.

alpha = 0.95 #significant level
VaR.alpha = qnorm(alpha, mu, sigma)
VaR.alpha = mu + sigma*qnorm(alpha, 0, 1)

vastaavasti voidaan nähdä, että odotettu vajaus on jakauman häntäosaan liittyvä Suure:

lähde: Eric Zivotin Luentomuistiinpanoissa

neljännellä rivillä lukee ”ES on odotettu tappio tappiojakauman ylemmässä ”hännässä”. VaR: n tapaan normaalijakauman tapauksessa on kätevää laskea ES nyt, kun se on vain typistetyn normaalijakauman keskiarvo.

lähde: Eric Zivotin luentomuistiinpanot

alpha = 0.95
q.alpha.z = qnorm(alpha)
ES.alpha = mu + sigma*(dnorm(q.alpha.z)/(1-alpha))

Jos joku on kiinnostunut siitä, miksi jaamme 1-α: lla, tämä on vain normalisointivakio (tai skaalauskerroin) varmistaaksemme, että typistetyn häviöjakauman integraatio on yksi, mikä on edellytys sille, että se on todennäköisyysjakauma.

takaisin ”hännän” tarinaan halusin vain korostaa, että häntäjakaumia käytetään laajalti riskienhallinnan välineenä.

kuinka rasva on rasvaa? Kuinka raskas on raskas?

koska selvitimme, mikä ”häntä” on jakelussa ja missä sitä käytetään, nyt on aika puhua ”Läski” – osasta. Me kaikki tiedämme, että normaalijakelussa ei ole läskihäntää. Sen sijaan meille opetettiin käyttämään opiskelija-t-jakaumaa ja kirjaamaan normaalijakauma taloudellisen tuoton sarjaa mallinnettaessa ”läskihännän” ominaisuuden huomioon ottamiseksi. Mutta meidän on tiedettävä läskihännän määritelmä. Valitettavasti rasva-termille ei ole olemassa yleismaailmallista määritelmää.

yritän selittää läskihännän Englannin, graafin ja matematiikan kielellä. Toivottavasti nautit edes yhdestä kolmesta.

  • raskashäntäisellä jakaumalla on pyrstö, joka on painavampi kuin eksponentiaalinen jakauma (Bryson, 1974)
  • jakaumalla sanotaan olevan raskas häntä, kun pyrstön osa hajoaa hitaammin kuin eksponentiaalinen jakauma.

miksi eksponentiaalinen?

on kätevää käyttää eksponentiaalista jakaumaa referenssinä. Eksponentiaalisen jakauman pdf lähestyy nollaa ”eksponentiaalisesti” nopeasti. Toisin sanoen, pyrstö pdf näyttää (mutta käyttäytyy eri tavalla) eksponentiaalinen Jakelu.

kuvaajan kielellä

näytän 4 erilaista kuvaajaa, jotka näyttävät, mitä tapahtuu äärioikeiston hännillä eri jakaumissa kuten alla:

  • eksponentiaalinen jakauma (exp)
  • Potenssilakijakauma (PL)
  • Normaalijakauma (n)
  • Log-Normaalijakauma (LN)
  • Student-t-jakauma
  • Cauchyn jakauma
  • Levyjakauma
  • Weibull-jakauma

En selitä jokaista näistä jakaumista. Sen sijaan nautitaan vain näiden jakaumien kuvaajasta, jotta voidaan tuntea, mitä peräosassa tapahtuu. Ensimmäinen kuvaaja näyttää sen osan koko kuvaajasta, jonka ” x ” sijaitsee

Kuva. 5, R-koodit tälle kuviolle on esitetty asiakirjan lopussa

kun kuviossa 5 edellä, emme voi kertoa, miten pyrstö käyttäytyy. Mutta, tässä muutamia asioita, jotka kannattaa mainita

  • normaali, opiskelija-t ja Cauchyn jakaumat ovat kaksihäntäisiä jakaumia. Kaikki muut ovat yksipyrstöisiä jakaumia
  • Pl(2,5) ja PL(3,5), on risteyskohta lähellä x=1,7, mikä osoittaa, että PL(2,5) on paksumpi häntä.

katsotaan, miltä se näyttää ,kun ” x ”sijaitsee. Huomaa, että arvot Y-akselin saada paljon pienempi.

Kuva. 6

K: Mitä näet tässä kaaviossa?

a: ylimmällä viivalla olisi paksuin häntä! (Mutta ei aivan!!!) Ja näet miksi!

Tarkastellaanpa edellä olevan kuvan 6 tärkeitä tosiasioita etukäteen.

  • normaali-ja exp(2) – jakaumat ryömivät lähellä arvoa 0, kun x=5. Erityisesti normaalijakelussa sen pdf-arvo 5 keskihajonta on 0,000001486 (=pnorm (5)). Tämä on noin 8 000 kertaa pienempi kuin Cauchyn jakauma. Toisin sanoen 5 Sigman tapahtumat ovat 8000 kertaa todennäköisempiä Cauchyn jakaumassa kuin Normaalijakaumassa.
  • kuviossa 6 on muistettava, että Exp(0.2) – jakauma sijoittuu selvästi log-normaalijakauman ja potenssilain jakaumien yläpuolelle. Tarkista, miten se kääntyy seuraavissa kuvaajissa laajennettuaan ” x ” – arvojen aluetta.

katsotaan, miltä se näyttää ,kun ” x ” sijaitsee . Jälleen, olla tietoinen siitä, että arvot y-akselin saada paljon paljon pienempi.

Kuva. 7
  • huomaa, että sininen viiva exp (0.2) hajoaa nopeasti ylittäessään kaksi muuta, jotka ovat PL(2.5) ja Cauchy. Tätä tarkoittaa ”hajoaa hitaammin kuin eksponentiaalinen jakauma”
  • on yllättävää nähdä, mitä tapahtuu lähellä ” x ” on yhtä kuin 100. Sen pdf-arvo PL(1.5) on 0.0005. Ei ihme, että ensimmäinen ja toinen momentti(keskiarvo ja varianssi) ovat ääretön pl (1,5). Lisätietoja tästä käsitellään seuraavassa asiakirjassa. Pysykää kuulolla!

zoomataan y-akselia nähdäksesi, miten se käyttäytyy yksityiskohtaisesti!

Kuva. 8
  • yllättäen sininen viiva exp(0,2) pienenee ylittämällä pl(3,5) ja LN(0,1). Voimme myös nähdä, että Ln(0,1) hajoaa nopeammin kuin PL(3,5) nyt, kun se ylittää PL (3,5) ja menee sen alle.
  • PL (1.5), PL(2.5) ja Levyjakaumat eivät edes näy tässä kaaviossa.

matematiikassa

Rasvahäntäjakauma on raskashäntäjakauman alaluokka. Se tarkoittaa, että vaikka jokainen rasva-tailed jakelu on heavy-tailed, päinvastoin ei ole totta (esim., Weibull). Jay Taylorin luentomuistiinpanojen mukaan hän erotteli raskaan ja rasvan seuraavalla tavalla.

raskaan hännän määritelmä

  • jakaumalla sanotaan olevan oikea raskashäntä, jos hännät” eivät ”rajaudu eksponentiaalisesti

yhtälö 1

voimme tulkita sen niin, että kun” x ” kasvaa suureksi, eksponentiaalisesti kasvava nopeus on nopeampi kuin laskevan todennäköisyyden nopeus raskaalla oikealla hännällä. Varaa aikaa sen miettimiseen!

Katso, miten se liittyy englanninkieliseen määritelmään.

  • Todennäköisyysjakaumafunktiota, joka hajoaa hitaammin kuin eksponentti, kutsutaan oikeaksi raskashäntäiseksi.

eksponentiaalisesti rajattuna?

Jos raskas oikea häntä ei ole tarpeeksi raskas eli se hajoaa supernopeasti ”x”: n mentyä äärettömyyteen, yhtälö 1 konvergoituu nollaan. Ilmeinen esimerkki on yhtenäinen jakelu yli kuten edellä. Kun ” x ” ylittää Ykkösen, suuremman X: n todennäköisyys muuttuu nollaksi niin, että se rajautuu eksponentiaalisesti. Toinen suosittu esimerkki on normaalijakauma. Olkoon X tavallinen normaali. Piirrä sarja kuvaajia eri lambda-arvoille saadaksesi

Kuva. 3

voimme nähdä, että se konvergoituu nollaan niin, että normaalijakauman hännät rajoittuvat eksponentiaalisesti.


f_exp = function(x, lambda){return (exp(lambda*x))
cdf_normal = function(x) pnorm(x)
ccdf_normal = function(x) {1-cdf_normal(x)}xs = seq(1,10,length=10000)
plot(xs, f_exp(xs,0.1)*ccdf_normal(xs), type='l', xlab='',ylab='', col='blue', lwd=2)
abline(v=1, lty = 'dashed')
lines(xs,f_exp(xs,0.5)*ccdf_normal(xs), col='purple', lwd=2)
lines(xs,f_exp(xs,1)*ccdf_normal(xs), col='red', lwd=2)
lines(xs,f_exp(xs,1.5)*ccdf_normal(xs), col='orange', lwd=2)
lines(xs,f_exp(xs,2)*ccdf_normal(xs), col='darkred', lwd=2)
lines(xs,f_exp(xs,3)*ccdf_normal(xs), col='darkblue', lwd=2)
grid()
legend(8, 0.15,
legend=c("0.1", "0.5","1","1.5","2","3"), title = "lambda",
col=c("blue",'purple', "red",'orange','darkred','darkblue'), lwd=2, cex=1)

rasvahännän määritelmä

  • jakaumalla sanotaan olevan oikea rasvahäntä, jos on positiivinen eksponentti (alfa), jota kutsutaan pyrstöindeksiksi siten, että

~ tarkoittaa samaa aina vakioon asti. Tai peräosa on verrannollinen voimalakiin. Se tarkoittaa seuraavia

lähde: ja

voit vapaasti jättää väliin, jos matematiikka on sinulle ”raskasta/läskiä”.

näin ollen rasvahäntäisten jakaumien häntäosa noudattaa voimalakia (joka on ” x ” miinus alfan potenssiin). Niille, jotka eivät tunne valtalakia, älkää nyt olko huolissanne. Ajattele kaaviota, kun alfa on kaksi.

Kuva. 4

muistuta itseäsi, että hännän osa näyttää samanlaiselta kuin voimalaki, kuten olemme nähneet luvuissa 5-8 yllä. Selitän power law tarkemmin tästä sarjasta.

Yhteenveto

kävimme tässä dokumentissa läpi käsitteen ”läskihäntä” intuitiivisesti, graafisesti ja matemaattisesti. Jotta voidaan ymmärtää ”karkaistu vakaa jakautuminen”, on välttämätöntä saada perustavanlaatuinen käsitys rasva-hännästä. Toivottavasti tämä asiakirja auttoi parantamaan ymmärrystäsi. Kommentoi alla, jos sinulla on kysyttävää. Toivottavasti olet utelias siitä, mitä seuraavaksi tapahtuu. Seuraavalla kerralla palaan ”Journey to Tempered Stable Distribution”


f_exp = function(x, lambda, xmin) {lambda*exp(-lambda*(x-xmin))}
f_power = function (x, k, x_min) {
C = (k-1)*x_min^(k-1)
return (C*x^(-k))
}
f_cauchy = function(x) dcauchy(x)
f_levy = function(x) dlevy(x) # required package: 'rmulti'
f_weibul = function(x) dweibull(x,shape=1)
f_norm = function(x) dnorm(x)
f_lnorm = function(x) dlnorm(x)
f_t = function(x) dt(x,5)
xs = seq(0.1,100,length=1000)plot(xs, f_exp(xs,0.5,0.1),type='l',xlab='',ylab='', col='blue', lwd=2,
main='Distributions on ', cex.main=1,
xlim=c(0,5),
ylim=c(0,2.5))
lines(xs,f_exp(xs,1,0.1), col='purple', lwd=2)
lines(xs,f_exp(xs,2,0.1), col='bisque3', lwd=2)
lines(xs,f_power(xs,1.5, 1), col='red', lwd=2)
lines(xs,f_power(xs,2.5, 1), col='orange', lwd=2)
lines(xs,f_power(xs,3.5, 1), col='darkred', lwd=2)
lines(xs,f_norm(xs),col='black', lwd=2)
lines(xs,f_lnorm(xs), col='darkgreen', lwd=2)
lines(xs,f_t(xs), col='deeppink', lwd=2)
lines(xs, f_cauchy(xs), col='darkblue', lwd=2)
lines(xs, f_levy(xs), col='azure4', lwd=2)
lines(xs, f_weibul(xs), col='springgreen', lwd=2)
abline(v=2, lty = 'dashed')
abline(v=3, lty = 'dashed')
grid()
legend(3.5, 2.5,
legend=c("exp(0.2)", "exp(1)", 'exp(2)', "PL(1.5)", 'PL(2.5)', 'PL(3.5)', 'N(0,1)','LN(0,1)','student-t(5)','Cauchy','Levy','Weibull'),
col=c("blue",'purple', 'bisque3',"red",'orange','darkred', 'black','darkgreen','deeppink','darkblue', 'azure4','springgreen'), lwd=2, cex=0.8)

Jay Taylor, Heavy-tailed distribution (2013), Lecture notes,

Eric Zivot, Risk Measures (2013), Lecture notes

Aaron Clauset, Inference, Models and Simulation for Complex Systems (2011), Lecture notes

https://blogs.sas.com/content/iml/2014/10/13/fat-tailed-and-long-tailed-distributions.html

Vastaa

Sähköpostiosoitettasi ei julkaista.