Comprendre la distribution à queue grasse

Dans la partie 1, nous discutons de ce que signifie pour une variable aléatoire d’avoir une distribution « queue grasse ».

Loin? Gros ?

Pour comprendre la queue grasse, nous devons répondre aux deux questions suivantes.

1. Jusqu’où est loin?
2. Quelle est la graisse?

Pour parler de la queue, nous devons déterminer à quelle distance est loin pour décider à quelle distance du milieu est assez loin pour dire une « queue ». En d’autres termes, où commence la queue? Ça dépend ! Malheureusement, il n’y a pas de réponse unique.

Considérez la distribution normale. Notez qu’il y a deux queues: droite et gauche. Si nous voulons décrire la queue « droite » de la distribution à partir d’un écart-type par rapport à la moyenne, par exemple, la partie ombrée fait référence à la queue droite de la distribution normale.

Figure. 1

Formellement, nous pouvons décrire la queue comme suit:

  • queue droite: P(X > x)
  • queue gauche: P(X≤-x)

pour une grande valeur de ‘x’. Maintenant, nous connaissons le concept de « queue ».


#For normal distribution with value 'x=a'
a=1
1-pnorm(a) #right tail
pnorm(-a) #left tail

Chaque distribution a-t-elle une queue ?

Pensez à la distribution uniforme sur. A-t-il une queue? Dans ce blog, il est dit que toutes les distributions n’ont pas de queue.

Si vous voulez que « le comportement de la queue » décrive les caractéristiques du pdf lorsque ‘x’ devient grand, les distributions bornées n’ont pas de queue. Néanmoins, certaines caractéristiques des queues peuvent être quantifiées. En particulier, en utilisant des limites et un comportement asymptotique, vous pouvez définir la notion de queues lourdes. Blog SAS

Je vais expliquer la distribution (exponentiellement) bornée / non bornée ci-dessous. Veuillez vous rappeler la distribution uniforme lorsque vous y arrivez!

Pourquoi devrions-nous nous soucier de la partie « queue » de la distribution?

La partie arrière de la distribution a été la principale préoccupation pour la gestion des risques. Par exemple, les deux mesures de risque les plus utilisées pour la distribution du rendement ou de la perte sont la valeur à risque (VaR) et le(s) déficit(S) attendu(S)

Pourquoi la perte ne rapporte-t-elle pas?

  • la perte est littéralement moins (-) retour
  • Prendre la limite à l’infini négatif n’est pas intuitif. Nous prenons donc le négatif des valeurs de retour, c’est-à-dire en tournant la distribution sur l’axe des ordonnées.

Voyez simplement comment la quantité VaR et ES sont liées à ‘tail’. Vous n’avez pas besoin de comprendre les mathématiques ou la signification derrière eux.

 » Sachez que le graphique ci-dessous est une répartition des Pertes et non des retours! »

Figure. 2 // Source: Ch2, Gestion quantitative des risques (ci-après QRM) par McNeil et al

Pensez à la répartition de la perte, L, rendement équivalent (négatif), sur certains actifs sur une période de détention donnée. Par souci de compréhension, nous supposons que la variable aléatoire des pertes sur demain suit la distribution normale:

Ensuite, nous pouvons calculer la VaR de la manière suivante:

Source: Notes de cours d’Eric Zivot

Grâce à la deuxième ligne, nous pouvons facilement vérifier que la VaR n’est qu’une quantité liée à la queue grasse. Pour plus de détails sur le VaR, consultez le chapitre deux du livre  » Gestion Quantitative des Risques : Concepts, Techniques et Outils  » et la note de cours d’Eric Zivot sur son site internet.

alpha = 0.95 #significant level
VaR.alpha = qnorm(alpha, mu, sigma)
VaR.alpha = mu + sigma*qnorm(alpha, 0, 1)

De même, nous pouvons voir que le déficit attendu est une quantité liée à la partie arrière de la distribution:

Source: Notes de cours d’Eric Zivot

À la quatrième ligne, il est dit « ES est la perte attendue dans la « queue » supérieure de la distribution des pertes. Semblable à VaR, dans le cas d’une distribution normale, il est commode de calculer l’ES maintenant qu’il ne s’agit que d’une moyenne de distribution normale tronquée.

Source: Notes de cours d’Eric Zivot

alpha = 0.95
q.alpha.z = qnorm(alpha)
ES.alpha = mu + sigma*(dnorm(q.alpha.z)/(1-alpha))

Si quelqu’un est curieux de savoir pourquoi nous divisons par 1—α, il ne s’agit que d’une constante de normalisation (ou facteur d’échelle) pour s’assurer que l’intégration de la distribution de perte tronquée en est une, ce qui est une exigence pour qu’elle soit une distribution de probabilité.

Pour revenir à l’histoire de la « queue », je voulais juste souligner que les distributions de queue sont largement utilisées comme outil de gestion des risques.

Quelle est la graisse? Quel poids est lourd?

Puisque nous avons compris quelle est la « queue » dans la distribution et où elle est utilisée, il est maintenant temps de parler de la partie « grasse ». Nous savons tous que la distribution normale n’a pas de queue grasse. Au lieu de cela, nous avons appris à utiliser la distribution student-t et la distribution normale du journal lors de la modélisation de la série de rendements financiers pour prendre en compte la propriété « queue grasse ». Mais nous devons connaître la définition de la queue grasse. Malheureusement, il n’existe pas de définition universelle du terme graisse.

Je vais essayer d’expliquer la queue grasse dans la langue de l’anglais, du graphique et des mathématiques. J’espère que vous apprécierez au moins l’un des trois.

  • Une distribution à queue lourde a des queues plus lourdes qu’une distribution exponentielle (Bryson, 1974)
  • On dit que la distribution a une queue lourde lorsque la partie de la queue se désintègre plus lentement que la distribution exponentielle.

Pourquoi exponentielle?

Il est pratique d’utiliser la distribution exponentielle comme référence. Le pdf de la distribution exponentielle s’approche rapidement de zéro « exponentiellement ». Autrement dit, la queue du pdf ressemble (mais se comporte différemment de) à la distribution exponentielle.

Dans le langage du graphique,

Je vais vous montrer 4 graphiques différents qui montrent ce qui se passe dans les queues à l’extrême droite d’un ensemble de distributions différentes comme ci-dessous:

  • Distribution exponentielle (exp)
  • Distribution de loi de puissance (PL)
  • Distribution normale (N)
  • Distribution Log-normale (LN)
  • Distribution Student-t
  • Distribution de Cauchy
  • Distribution de prélèvement
  • Distribution de Weibull

Je n’expliquerai pas chacune de ces distributions. Au lieu de cela, profitons simplement du graphique de ces distributions pour ressentir ce qui se passe dans la partie arrière. Le premier graphique montre la partie du graphique entier dont « x » se trouve dans

Figure. 5, Les codes R pour ce graphique sont fournis à la fin du document

Avec la figure 5 ci-dessus, nous ne pouvons pas dire comment se comporte la queue. Mais, voici quelques choses qui méritent d’être mentionnées

  • Les distributions normales, student-t et Cauchy sont des distributions à deux queues. Tous les autres sont des distributions à queue unique
  • Pour PL(2,5) et PL(3,5), il y a un point de croisement proche de x = 1,7, ce qui indique que PL(2,5) a une queue plus épaisse.

Regardons à quoi cela ressemble lorsque ‘x’ se trouve. Sachez que les valeurs de l’axe des ordonnées deviennent beaucoup plus petites.

Figure. 6

Q: Que voyez-vous dans ce graphique?

R: La ligne la plus haute aurait la queue la plus épaisse! (Mais pas tout à fait!!!) Et vous verrez pourquoi!

Au préalable, examinons les faits importants de la figure 6 ci-dessus.

  • Les distributions Normale et exp(2) rampent près de 0 lorsque x = 5. En particulier pour la distribution normale, sa valeur pdf de l’écart type 5 est de 0,000001486 (= pnorm(5)). C’est environ 8000 fois plus petit que celui de la distribution de Cauchy. En d’autres termes, 5 événements sigma sont 8000 fois plus susceptibles de se produire sous la distribution de Cauchy que la distribution normale.
  • Dans la figure 6, gardez à l’esprit que la distribution exp(0.2) se situe bien au-dessus des distributions log normales et des lois de puissance. Veuillez vérifier comment cela s’inverse dans les graphiques suivants après avoir étendu la plage de valeurs « x ».

Voyons à quoi cela ressemble lorsque ‘x’ se trouve. Encore une fois, sachez que les valeurs de l’axe des ordonnées deviennent beaucoup plus petites.

Figure. 7
  • Notez que la ligne bleue exp(0.2) se désintègre rapidement en croisant les deux autres que sont PL(2.5) et Cauchy. C’est ce que cela signifie par « décroissance plus lente que la distribution exponentielle »
  • Il est surprenant de voir ce qui se passe près de ‘x’ égal à 100. Sa valeur pdf de PL(1,5) est de 0,0005. Pas étonnant que le premier et le deuxième moment (moyenne et variance) soient infinis pour PL (1.5). Des informations détaillées à ce sujet seront traitées dans le prochain document. Restez à l’écoute !

Zoomons sur l’axe des y pour voir comment il se comporte en détail!

Figure. 8
  • Étonnamment, la ligne bleue exp(0,2) diminue en croisant les PL (3,5) et LN (0,1). De plus, nous pouvons voir que LN(0,1) se désintègre plus vite que PL(3,5) maintenant qu’il traverse le PL(3,5) et passe sous celui-ci.
  • PL (1.5), PL(2.5) et les distributions de prélèvements ne sont même pas affichées dans ce graphique.

Dans le langage des mathématiques,

La distribution de la queue grasse est une sous-classe de la distribution à queue lourde. Cela signifie que bien que chaque distribution à queue grasse soit à queue lourde, l’inverse n’est pas vrai (par exemple, Weibull). Selon les notes de conférence de Jay Taylor, il a différencié le lourd et le gras de la manière suivante.

Définition de queue lourde

  • On dit que la distribution a une queue lourde droite si les queues ne sont « pas » délimitées exponentiellement

Équation 1

Nous pouvons l’interpréter comme si lorsque « x » devient grand, la vitesse d’augmentation exponentielle est plus rapide que la vitesse de probabilité décroissante sur la queue droite lourde. Prenez le temps d’y réfléchir!

Voyez comment il se connecte à la définition anglaise.

  • Les fonctions de distribution de probabilité qui se désintègrent plus lentement qu’une exponentielle sont appelées queue lourde droite.

Lorsque délimité de façon exponentielle ?

Si la queue droite lourde n’est pas assez lourde, c’est-à-dire qu’elle se désintègre très vite lorsque « x » va à l’infini, alors l’équation 1 converge vers zéro. L’exemple évident est la distribution uniforme comme nous l’avons discuté ci-dessus. Une fois que ‘x’ dépasse l’un, la probabilité de X supérieure à un devient nulle de sorte qu’elle est exponentiellement bornée. Un autre exemple populaire est la distribution normale. Soit X une normale standard. Dessinez une série de graphiques pour les différentes valeurs lambda à obtenir

Figure. 3

Nous pouvons voir qu’il converge vers zéro de sorte que les queues de la distribution normale sont bornées exponentiellement.


f_exp = function(x, lambda){return (exp(lambda*x))
cdf_normal = function(x) pnorm(x)
ccdf_normal = function(x) {1-cdf_normal(x)}xs = seq(1,10,length=10000)
plot(xs, f_exp(xs,0.1)*ccdf_normal(xs), type='l', xlab='',ylab='', col='blue', lwd=2)
abline(v=1, lty = 'dashed')
lines(xs,f_exp(xs,0.5)*ccdf_normal(xs), col='purple', lwd=2)
lines(xs,f_exp(xs,1)*ccdf_normal(xs), col='red', lwd=2)
lines(xs,f_exp(xs,1.5)*ccdf_normal(xs), col='orange', lwd=2)
lines(xs,f_exp(xs,2)*ccdf_normal(xs), col='darkred', lwd=2)
lines(xs,f_exp(xs,3)*ccdf_normal(xs), col='darkblue', lwd=2)
grid()
legend(8, 0.15,
legend=c("0.1", "0.5","1","1.5","2","3"), title = "lambda",
col=c("blue",'purple', "red",'orange','darkred','darkblue'), lwd=2, cex=1)

Définition de la queue grasse

  • La distribution est dite avoir une queue grasse droite s’il existe un exposant positif (alpha) appelé indice de queue tel que

Le ‘~’ signifie identique jusqu’à constante. Ou la partie arrière est proportionnelle à la loi de puissance. Précisément, cela signifie ce qui suit.

Source: et

N’hésitez pas à sauter si les mathématiques sont « lourdes / grasses » pour vous.

Par conséquent, la partie arrière des distributions à queue grasse suit une loi de puissance (qui est « x » à la puissance de moins alpha). Pour ceux qui ne connaissent pas une loi de pouvoir, ne vous inquiétez pas maintenant. Pensez au graphique lorsque alpha est égal à deux.

Figure. 4

Rappelez-vous que la partie arrière ressemble à la loi de puissance comme nous l’avons vu dans les figures 5 à 8 ci-dessus. Je vais expliquer la loi du pouvoir plus en détail à partir de cette série.

Résumé

Nous avons passé en revue le concept de « queue grasse » dans ce document de manière intuitive, graphique et mathématique. Pour comprendre la « distribution stable tempérée », il est nécessaire d’avoir une compréhension fondamentale de la queue grasse. J’espère que ce document a été utile pour améliorer votre compréhension. Veuillez commenter ci-dessous si vous avez des questions. J’espère que vous êtes curieux de savoir ce qui va suivre. La prochaine fois, je reviendrai avec « Journey to Tempered Stable Distribution »


f_exp = function(x, lambda, xmin) {lambda*exp(-lambda*(x-xmin))}
f_power = function (x, k, x_min) {
C = (k-1)*x_min^(k-1)
return (C*x^(-k))
}
f_cauchy = function(x) dcauchy(x)
f_levy = function(x) dlevy(x) # required package: 'rmulti'
f_weibul = function(x) dweibull(x,shape=1)
f_norm = function(x) dnorm(x)
f_lnorm = function(x) dlnorm(x)
f_t = function(x) dt(x,5)
xs = seq(0.1,100,length=1000)plot(xs, f_exp(xs,0.5,0.1),type='l',xlab='',ylab='', col='blue', lwd=2,
main='Distributions on ', cex.main=1,
xlim=c(0,5),
ylim=c(0,2.5))
lines(xs,f_exp(xs,1,0.1), col='purple', lwd=2)
lines(xs,f_exp(xs,2,0.1), col='bisque3', lwd=2)
lines(xs,f_power(xs,1.5, 1), col='red', lwd=2)
lines(xs,f_power(xs,2.5, 1), col='orange', lwd=2)
lines(xs,f_power(xs,3.5, 1), col='darkred', lwd=2)
lines(xs,f_norm(xs),col='black', lwd=2)
lines(xs,f_lnorm(xs), col='darkgreen', lwd=2)
lines(xs,f_t(xs), col='deeppink', lwd=2)
lines(xs, f_cauchy(xs), col='darkblue', lwd=2)
lines(xs, f_levy(xs), col='azure4', lwd=2)
lines(xs, f_weibul(xs), col='springgreen', lwd=2)
abline(v=2, lty = 'dashed')
abline(v=3, lty = 'dashed')
grid()
legend(3.5, 2.5,
legend=c("exp(0.2)", "exp(1)", 'exp(2)', "PL(1.5)", 'PL(2.5)', 'PL(3.5)', 'N(0,1)','LN(0,1)','student-t(5)','Cauchy','Levy','Weibull'),
col=c("blue",'purple', 'bisque3',"red",'orange','darkred', 'black','darkgreen','deeppink','darkblue', 'azure4','springgreen'), lwd=2, cex=0.8)

Jay Taylor, Distribution à queue lourde (2013), Notes de cours,

Eric Zivot, Mesures des risques (2013), Notes de cours

Aaron Clauset, Inférence, Modèles et Simulation pour les Systèmes complexes (2011), Notes de cours

https://blogs.sas.com/content/iml/2014/10/13/fat-tailed-and-long-tailed-distributions.html

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.