On ne peut pas simplement ajouter les probabilités d'obtenir un "6", car les événements ne sont pas disjoints : l'intersection de "obtenir un 6 au premier lancer" et "obtenir un 6 au second lancer" est constituée du couple (6,6), et donc non vide.
On peut procéder par dénombrement, en notant A l'événement "obtenir au moins un 6". ££\begin{align*} \P(A) &= 1 - \P(\overline{A})\\ &= 1 - \P(\mbox{"ne pas obtenir 6"})\\ &= 1 - \frac{5^4}{6^4} > 0.5 \end{align*}££ Le jeu est donc favorable.
Cette fois l'espace £\Omega£ est constitué des listes de 24 résultats de deux dés, que l'on peut considérer comme £(\{1,\dots,6\}^2)^{24}£. Il y a encore équiprobabilité, et le même calcul donne ££\P(A) = 1 - \frac{35^{24}}{36^{24}} < 0.5££ Le jeu est donc défavorable.
£\Omega = \{F,P\}^4£ convient (ensemble des quadruplets de 'F' ou 'P'). Tous les résultats étant a priori possibles, on doit prendre £\cE = \cP(\Omega)£. Enfin, sans hypothèses additionnelles on suppose généralement l'équiprobabilité : £\P(\omega \in \Omega) = \frac{1}{\#\Omega} = \frac{1}{16}£.
A correspond aux combinaisons à 3 éléments ("pile") parmi 4, auxquelles il faut ajouter l'unique configuration à 4 "pile" : PPPP. B est un simple lancer de pièce non truquée.
£\P(A) = \frac{C_4^3 + 1}{16} = \frac{5}{16}£, et £\P(B) = \frac{1}{2}£.
£C_3^2+1 = 4£ cas favorables pour £A \cap B£, donc £\P(A \cap B) = \frac{1}{4} \neq \P(A) \P(B) \Rightarrow£ A et B sont dépendants.
£\Omega = \{ i_1, \dots, i_5 \in \{1,\dots,50\} / i_1 < \dots < i_5 \} \times \{ i_1, i_2 \in \{1,\dots,11\} / i_1 < i_2 \}.£ A priori, toutes les parties de £\Omega£ sont envisageables, et sans autres hypothèses on suppose l'équiprobabilité. £\cE = \cP(\Omega)£, £\P(\omega) = \frac{1}{C_{50}^5 \times C_{11}^2}£.
Un seul cas favorable, donc la probabilité d'avoir tout juste vaut £\frac{1}{C_{50}^5 \times C_{11}^2} = \frac{1}{116531800} \simeq 8.6 e^{-9}£.
On exprime plutôt l'événement "ne pas gagner", consistant en l'union de "n'avoir aucune boule juste" et "avoir exactement une boule mais pas deux étoiles". En terme de cas "favorables", cela se compte comme suit. £C_{45}^5 \times C_{11}^2 + C_{45}^4 \times 5 \times (C_9^2 + 9 \times 2) = 107425395£. La probabilité de gain s'écrit donc £1 - 107425395 / 116531800 \simeq \frac{1}{13}£ : on a environ une chance sur 13 de gagner.
Cas favorables pour 2 boules et pas d'étoiles : £C_{45}^3 \times C_5^2 \times C_9^2 = 5108400£.
Cas favorables pour une boule et deux étoiles : £C_{45}^4 \times 5 = 744975£.
La première situation est environ 7 fois plus probable.
Cas favorables pour 2 boules et une étoile : £C_{45}^3 \times C_5^2 \times 9 \times 2 = 2554200£.
Cette dernière situation est environ 3.5 fois plus probable.
C'est en accord avec l'intuition : il y a plus de façon d'avoir une ou deux boules justes que d'avoir exactement deux étoiles.
£4^{10} = 1048576£
Cas favorables (pour répondre au moins 6 fois correctement) : £\sum_{k=6}^{10} C_{10}^k \times 3^{10-k} = 20686£.
Donc £\P(\mbox{"avoir au moins 6 reponses justes"}) = \frac{20686}{1048576} \simeq 2e^{-2}£, soit environ 2% de chances.
On dispose de £\P(A) = \frac{1}{3}£, £\P(B) = \frac{1}{2}£ et £\P(J) = \frac{1}{4}£, probabilités de toucher la cible respectivement pour Alice, Bob et Jo. On sait que la cible a été touchée deux fois, et on se demande qui a probablement raté la cible.
Il y a trois configurations possibles déterminées par le couple de chasseurs ayant atteint la cible, correspondant respectivement aux événements £A \cap B£, £A \cap J£ et £B\cap J£ sachant £T_2£, où £T_2£ désigne l'événement "atteindre la cible deux fois". On peut raisonnablement supposer les événements indépendants, et donc calculer £\P(A \cap B | T_2) = \frac{1}{6 \P(T_2)}£, £\P(A \cap J) = \frac{1}{12 \P(T_2)}£, £\P(B \cap J) = \frac{1}{8 \P(T_2)}£. Ces probabilités correspondent respectivement à celles d'avoir manqué la cible pour J, B et A (toujours sachant £T_2£). Comme elles ont pour somme 1, il n'est pas nécessaire de calculer £\P(T_2)£ : il suffit de normaliser. On obtient alors £\P(\overline{A}|T_2) = \frac{3}{9}£, £\P(\overline{B}|T_2) = \frac{2}{9}£ et £\P(\overline{J}|T_2) = \frac{4}{9}£.
On sait qu'Alice a perdu sa valise, donc la somme des probabilités de l'avoir perdue dans les 4 lieux vaut 1. Comme elles sont égales par hypothèse, la probabilité d'avoir laissé la valise en Australie vaut £\frac{1}{4}£.
Avec les notations £V£ = boule verte et £U_k£ = choisir l'urne £k£, ££\begin{align*} \P(V) & = \sum_{k=1}^{n} \P(V|U_k) \P(U_k)\\ &= \sum_{k=1}^{n} \frac{k}{n^2}\\ &= \frac{n+1}{2n} \underset{n \to +\infty}{\longrightarrow} \frac{1}{2}\end{align*}££ C'est cohérent avec l'intuition : il y a à peu près autant de boules vertes que de boules rouges au total, et on a autant de chances de sélectionner une urne à boules vertes majoritaires qu'une à boules rouges majoritaires.
On note £T_k£ l'événement "la k£{}^{eme}£ montre fonctionne" et A (resp. B) "provenir de l'usine A" (resp. B). Alors on cherche £\P(T_2|T_1) = \frac{\P(T_1 \cap T_2)}{\P(T_1)}£. A et B formant une partition de l'espace, on utilise la formule des probabilités totales : ££\P(T_1 \cap T_2) = \P(T_1 \cap T_2 | A)\P(A) + \P(T_1 \cap T_2 |B)\P(B)££ À ce stade il manque des informations sur les probabilités qu'un lot provienne d'une usine donnée. Dans ce cas on doit considérer l'hypothèse la moins informative possible, c'est-à-dire la loi uniforme : £\P(A) = \P(B) = \frac{1}{2}£. On conclut alors en utilisant les données du problème. £\P(T_1 \cap T_2) = \frac{199^2}{2 \times 200^2} + \frac{999^2}{2 \times 1000^2}£ et £\P(T_1) = \frac{199}{2 \times 200} + \frac{999}{2 \times 1000}£, soit au final £\P(T_2|T_1) \simeq 0.997£.
On note respectivement M et P les événements "être malade" et "être testé positivement". Alors les données du problème se traduisent par ££\left\{ \begin{align*} \P(M) &= \frac{1}{1000}\\ \P(P|M) &= \frac{99}{100}\\ \P(P|\overline{M}) &= \frac{2}{1000} \end{align*}\right. ££
£\P(M|P) = \frac{\P(P|M) \P(M)}{\P(P)}£, donc il suffit de déterminer £\P(P) = \P(P|M)\P(M)+\P(P|\overline{M})\P(\overline{M}) = 2.988 \mbox{e}^{-3}£. Finalement £\P(M|P) \simeq£ 0.33.
On cherche £\P(M|\overline{P}) = \frac{\P(\overline{P}|M) \P(M)}{\P(\overline{P})} = \frac{(1 - \P(P|M)) \P(M)}{1 - \P(P)}£. Après calculs, £\P(M|\overline{P}) \simeq £ 1e-5.
Le pourcentage de faux négatifs (être testé négativement alors qu'on est malade) est très bas, donc ce test détecte bien (presque) tous les malades. En revanche le taux de faux positifs est trop mauvais : en moyenne 2 personnes testées positivement sur 3 ne sont pas malades. Le pourcentage global de faux positifs étant tout de même bas, on peut envisager d'effectuer un second test (probablement) plus coûteux et plus précis.
Cas défavorables = nombre de façons de choisir £n£ éléments parmi 365, avec ordre (£n \leq 365£).
Cas possibles = £365^n£
Donc pour £n \leq 365£, ££\begin{align*} p(n) &= 1 - \frac{A_{365}^n}{365^n}\\ &= 1 - \frac{365 \times \dots \times (365-n+1)}{365 \times \dots \times 365}\\ &= 1 - \prod_{i=0}^{n-1} \left(1 - \frac{i}{365}\right) \end{align*}££
En 0, £e^x = 1 + x + o(x)£. En appliquant ce DL à chaque terme du produit on obtient ££\begin{align*} p(n) & \simeq 1 - \prod_{i=0}^{n-1} \exp\left(-\frac{i}{365}\right)\\ &= 1 - \exp\left(-\frac{1}{365} \sum_{i=1}^{n-1} i\right)\\ &= 1 - e^{\frac{-n(n-1)}{2 . 365}} \end{align*} ££
L'énoncé suggère de résoudre l'équation approximative £1 - e^{\frac{-n(n-1)}{2 . 365}} = 0.5£, soit £e^{\frac{-n(n-1)}{2 . 365}} = 0.5£, puis £-n^2 + n = 730 \times \ln(0.5)£. Cette équation a pour solutions £0.5 \pm 0.5 \sqrt{1 - 2920 \ln(0.5)}£, soit environ 23 ou -22. On retient la solution positive : il faut environ 23 personnes pour avoir 50% de chances que deux aient le même jour d'anniversaire. (Le calcul exact donne £n = 22£)
Si on ne change pas de porte, la probabilité qui était d'un tiers reste £\frac{1}{3}£. En revanche si l'on change, elle passe à £\frac{2}{3}£ car le seul cas défavorable correspond à un choix initial gagnant (la voiture).
On peut le voir algorithmiquement : il y 3 portes dont 2 mauvaises et une bonne, donc 3 choix initiaux possibles. Si on avait choisi la bonne porte alors on perd à changer, mais si en revanche on avait choisi une mauvaise, on y gagne. Dans 2 cas sur 3 on y gagne, et comme les cas sont équiprobables, on obtient 2 chances sur 3 de gagner la voiture. Voici finalement un petit programme Python qui prouve le résultat empiriquement. (Voir aussi la page Wikipedia).
from random import randint
def frequenceGain(n, change):
total_gains = 0
for i in range(0, n):
position_voiture = randint(1, 3)
choix = randint(1, 3)
if change:
if choix == position_voiture:
#si on avait fait le bon choix, pas de chance,
#on change pour un poireau
choix = 0 #position_voiture % 3 + 1
else:
#si on avait fait un mauvais choix en revanche,
#on change forcément pour la voiture
choix = position_voiture
if choix == position_voiture:
total_gains += 1
return total_gains / n
print(frequenceGain(100000, True))
print(frequenceGain(100000, False))
Notons X, Y, Z les événements "X (resp. Y, Z) est condamné". Alors initialement, £\P(X) = \frac{2}{3}£. Après la révélation du geôlier on cherche £\P(X|Y)£, qui vaut par définition £\frac{\P(X \cap Y)}{\P(Y)}£.
La probabilité £\P(X \cap Y)£ correspond à celle pour que Z soit gracié : £\P(X \cap Y) = \P(\overline{Z}) = 1 - \P(Z) = \frac{1}{3}£. On en déduit £\P(X|Y) = \frac{1}{2}£ : le raisonnement du prisonnier X est juste.
Soit £X_A£ la variable aléatoire qui à un couple de résultats de dé associe le gain d'Alice. Alors le gain moyen d'Alice correspond à l'espérance de £X_A£, qui s'écrit ££\begin{align*}\E[X_A] &= \sum_{\omega = (\omega_1, \omega_2) \in \Omega} X_A(\omega) \P(\Omega)\\ &= \sum_{\omega_1 = \omega_2} \frac{5}{36}\\ &= \frac{30}{36} = \frac{5}{6} \end{align*}££
On veut que le gain moyen de Bob soit identique, d'où l'équation £\E[X_B] = \sum_{\omega_1 \neq \omega_2} \frac{g}{36} = \frac{5}{6}£ avec £g£ le gain de Bob à chaque résultat favorable et £X_B£ la variable aléatoire qui détermine ce gain. On obtient £\frac{30g}{36} = \frac{30}{36}£, donc Bob doit gagner 1 euro pour chaque non-double.
Un joueur mise toujours sur le même numéro, noté £N£. On suppose qu'il mise toujours la même somme £S£. On considère alors la variable aléatoire £X_N^{(S)} : \omega \mapsto S (35 \delta_{\omega = N} - \delta_{\omega \neq N})£ indiquant le gain du joueur en fonction du numéro tiré. Le "gain" moyen du joueur s'écrit alors, compte-tenu de l'équiprobabilité des événements élémentaires ££\begin{align*} \E[X_N^{(S)}] &= \sum_{\Omega} \P(\omega) X_N^{(S)}(\omega)\\ &=\frac{1}{37} \left( 35 S - \sum_{\omega \neq N} S \right)\\ &=-\frac{S}{37}\end{align*}££ Le casino récupère donc en moyenne 2.7% de la mise du joueur.
On définit la variable aléatoire £X_A£ donnant les gains d'Alice (éventuellement négatifs) : ££X_A(\omega) = 100 (\delta_{\omega = 2 k, k \geq 1} - \delta_{\omega = 0 \cup \omega = 2k+1}) + X_7^{(10)}(\omega)££ On calcule alors l'espérance ££\E[X_A] = \frac{100}{37} (18 - 19) - \frac{10}{37} \simeq -3££ Alice perd en moyenne 3€ à chaque tour (le calcul est le même avec 6 au lieu de 7).
Il suffit de toujours parier sur un nombre pair (ou toujours impair) et que la mise au tour n+1 soit toujours supérieure stricte à la somme de toutes les mises précédentes. Ainsi l'événement "le nombre est pair" (resp. impair) se réalisant une infinité de fois d'après le lemme de Borel-Cantelli, on est sûr d'arriver à un tour où on gagne. La totalité des sommes perdues valant alors S, on mise S+a > S et gagne a > 0.
Ce n'est pas réaliste car cela engendre des pertes temporaires exponentielles (si 8 échecs d'affilée, on perd déjà au moins £2^8-1 = 255€£). De plus à moins de choisir £a£ grand (augmentant d'autant plus les pertes temporaires), on ne gagne qu'une somme minime à chaque fois. Enfin, même si on est suffisamment riche les casinos fixent une mise maximale empêchant d'appliquer cette stratégie. Il s'agit de la martingale de Hawks ; il en existe beaucoup d'autres.
from random import randint
#M = mise initiale, on s'arrête au premier gain
def simuPair(M):
min_balance = 0
gains = 0
mise = M
tour = 1
while True:
nombre = randint(0, 37)
if nombre>0 and nombre%2==0:
gains += mise
else:
gains -= mise
if gains < min_balance:
min_balance = gains
if gains > 0:
print("gain au bout de "+str(tour)+" tours, avec un "
"déficit maximal de "+str(min_balance)+" au cours du jeu")
return
#doubler la mise vérifie la condition
mise *= 2
tour += 1
simuPair(1.0)
simuPair(100.0)
L'événement £X = k£ correspond à voir £k£ faces bleues d'affilée puis une face rouge, ou £k£ faces rouges d'affilée puis une face bleue. Les lancers étant indépendants (sauf hypothèse contraire – non mentionnée dans l'énoncé), on peut calculer £\P(X = k)£ comme suit en notant £B£ (resp. £R£) l'événement "obtenir une face bleue au premier lancer" (resp. rouge). ££\begin{align*} \P(X = k) &= \P(X = k|B)\P(B) + \P(X=k|R)\P(R)\\ &= p^k q + q^k p\\ &= pq (p^{k-1} + q^{k-1}) \, , \end{align*}££ avec £p = \frac{5}{6}£ la probabilité de voir une face bleue et £q = 1-p = \frac{1}{6}£ celle de voir une face rouge. On peut calculer (suites géométriques) ou vérifier numériquement que la somme vaut 1, par exemple avec le logiciel R.
k = seq(1,500) ; p = 5/6 ; q = 1/6
probas = p * q * (p^(k-1) + q^(k-1))
sum(probas[!is.nan(probas)])
[1] 1
££\begin{align*}
\E[X] &= p q \sum_{k=1}^{+\infty} (k p^{k-1} + k q^{k-1})\\
&= p q ( s(p) + s(q) )
\end{align*}££
Avec ££\begin{align*} s(x) &= \frac{d}{dx} \left( \sum_{k=1}^{+\infty} x^k \right)\\ &= \frac{d}{dx} \left( \frac{x}{1-x} \right)\\ &= \frac{1}{(1-x)^2} \end{align*}££
Soit finalement ££\begin{align*} \E[X] &= p q \left[ \frac{1}{q^2} + \frac{1}{p^2} \right]\\ &= \frac{p}{q} + \frac{q}{p}\\ &= 5 + \frac{1}{5} \end{align*}££ Vérification expérimentale en R :
longueur_moyenne = 0
N = 100000
for (i in 1:N) {
sequence=sample(c(1,2), 100, replace=TRUE, prob=c(1./6, 5./6))
index=2
while (sequence[index] == sequence[1]) {
index = index+1
}
longueur_moyenne = longueur_moyenne + index - 1
}
longueur_moyenne = longueur_moyenne / N
£\E[\1_A] = \int_{\Omega} \1_A(\omega) \P(d\omega) = \int_{A} \P(d\omega) = \P(A)£
£\1_{\cap \overline{A_i}} = \prod (1 - \1_{A_i})£ car "£x£ n'est dans aucun des £A_i£" équivaut à "£1-\1_{A_i}(x) = 1£ pour tout £i£". Le terme de droite £T_D£ se développe en ££\sum_{k=1}^{n} (-1)^k \sum_{1 \leq i_1 < \dots < i_k \leq n} \prod \1_{A_{i_k}} + 1££ L'espérance du terme de gauche est égale à £\P(\cap \overline{A_i}) = \P(\overline{\cup A_i}) = 1 - \P(\cup A_i)£. Il reste donc à calculer l'espérance du terme de droite. Pour cela on remarque que ££\E(\1_A \1_B) = \int_{\Omega} \1_A(\omega) \1_B(\omega) \P(d\omega) = \int_{A \cap B} \P(d\omega) = \P(A \cap B)££ Le calcul se généralise à un nombre quelconque de fonctions indicatrices, et on en déduit ££\E[T_D] = \sum_{k=1}^{n} (-1)^k \sum_{1 \leq i_1 < \dots < i_k \leq n} \P(A_{i_1} \cap \dots \cap A_{i_k}) + 1££ On obtient l'expression demandée en enlevant 1 puis en divisant par -1.
On commence par remarquer ££\begin{align*} \P(\overline{A_{i_1}} \cap \overline{A_{i_2}}) &= 1 - \P(A_{i_1} \cup A_{i_2})\\ &= 1 - (\P(A_{i_1}) + \P(A_{i_2}) - \P(A_{i_1}) \P(A_{i_2}))\\ &= (1 - \P(A_{i_1})) (1 - \P(A_{i_2}))\\ &= \P(\overline{A_{i_1}}) \P(\overline{A_{i_2}}) \end{align*}££ On montre alors l'indépendance par récurrence sur £k = 1, \dots, n£ : ££\begin{align*} \P(\overline{A_{i_1}} \cap \dots \cap \overline{A_{i_{k+1}}}) &= \P(\overline{A_{i_1}} \cap \dots \cap \overline{i_k}) \P(\overline{A_{i_{k+1}}})\\ &= \prod_{i_1, \dots, i_{k+1}} A_{i_j} \end{align*}££ (Je ne vois pas comment le prouver directement à partir de la formule).
£\P(X_{k+1} = 1|X_k = 0) = 1-p£, et £\P(X_{k+1} = 1|X_k = 1) = p£ d'après l'énoncé.
On commence par remarquer que £A_n(X_0) = M^n A_0£ avec £A_0 = \begin{pmatrix} \delta_{X_0 = 1} & \delta_{X_0 = 0} \end{pmatrix}£. Diagonalisons alors M : ££M = \frac{1}{2} \begin{pmatrix} 1 & 1\\ 1 & -1 \end{pmatrix} \begin{pmatrix} 1 & 0\\ 0 & 2p - 1 \end{pmatrix} \begin{pmatrix} 1 & 1\\ 1 & -1 \end{pmatrix}££ On obtient ££\begin{align*} A_n(X_0) &= \frac{1}{2} \begin{pmatrix} 1 & 1\\ 1 & -1\end{pmatrix} \begin{pmatrix} 1 & 0\\ 0 & (2p-1)^n \end{pmatrix} \begin{pmatrix} 1 & 1\\ 1 & -1\end{pmatrix} A_0\\ &= \frac{1}{2} \begin{pmatrix} 1+(2p-1)^n & 1-(2p-1)^n\\ 1-(2p-1)^n & 1+(2p-1)^n \end{pmatrix} A_0 \end{align*}££ Puis ££\begin{align*} \P(B_n) &= \P((X_n=1\cap X_0=1) \cup (X_n=0\cap X_0=0))\\ &= \P(X_n=1\cap X_0=1) + \P(X_n=0\cap X_0=0)\\ &= \P(X_n=1|X_0=1)\P(X_0=1) + \P(X_n=0|X_0=0)\P(X_0=0)\\ &= (p A_n(1))[1] + ((1-p) A_n(0))[2]\\ &= \frac{p}{2} (1+(2p-1)^n) + \frac{1-p}{2} (1+(2p-1)^n) \end{align*}££ £B_n£ désignant l'événement "le bit initial est correctement transmis après n étapes".
À la limite £\P(B_n) \to \frac{1}{2}£, ce qui est assez cohérent avec l'intuition : après £n£ étapes il y a eu environ £(1-p)n£ erreurs, et "le bit est bien transmis" correspond à un nombre pair d'erreurs. Pour £n£ grand, il y a envion une chance sur deux que le nombre d'erreurs soit pair.
Soit £N£ la VA du nombre de bovins atteints. £N \sim \cB(n, p)£, £\E[N] = np£, £\mbox{Var}(N) = np(1-p)£.
On note £M_m£ la VA égale au nombre de tests effectués. On commence par en effectuer £\frac{n}{m}£, puis on teste chaque groupe de £m£ individus où au moins un est malade. La probabilité qu'au moins un bovin soit malade dans un groupe est indépendante des autres groupes, et vaut £1 - (1-p)^m£. Le nombre moyen de tests réalisés est donc ££\E[M_m] = \frac{n}{m} (1 + m (1 - (1-p)^m))££
£\E[M_n] = 1 + n(1 - (1-p)^n)£, et £\E[M_1] = n£ [£n (1+p)£ selon le protocole, mais ce n'est pas vraiment nécessaire]. Alors £\E[M_n] < \E[M_1] \Leftrightarrow 1 < n (1-p)^n \Leftrightarrow p < 1 - n^{-1/n}£. Il vaut donc mieux choisir £m=n£ pour £p < 1 - n^{-1/n}£, c'est-à-dire de très petites valeurs de £p£ car £n^{-1/n}£ dépasse rapidement 0.9 (puis converge vers 1). Avec £n = 30£ on trouve £p < 0.1£, et pour £n = 200£ on tombe à £p < 0.03£.
On veut minimiser £m \mapsto \frac{\E[M_m]}{n} - 1 = \frac{1}{m} - q^m£ avec £q = 1-p£. Étendons cette fonction £\phi£ à l'espace £\R^{+*}£, et calculons sa dérivée : £\phi'(x) = -x^{-2} - q^x \ln{q}£. ££\begin{align*} \phi'(x) = 0 &\Leftrightarrow x^{-2} = -q^x \ln{q}\\ &\Leftrightarrow x^2 \times q^x \times -\ln{q} = 1\\ &\Leftrightarrow \psi(x) = 2 \ln{x} + x \ln{q} - \ln{-\ln{q}} = 0 \end{align*}££ L'équation £\psi(x) = 0£ ne se résout pas directement, mais on peut étudier les variations de £\psi£ : £\psi'(x) = \frac{2}{x} + \ln{q} = 0 \Leftrightarrow x = x_0 = \frac{-2}{\ln{q}}£. Ainsi £\phi'£ est croissante sur £]0, x_0]£ puis décroissante sur £[x_0, +\infty[£.
On distingue alors deux cas :
Dans ce dernier cas, la valeur optimale de £m£ se situe entre 1 et £\frac{-2}{\ln{q}}£. Pour aller plus loin il faut résoudre une équation du type £\alpha x + \ln{x} = \beta£ ; c'est faisable numériquement.
Cas £p£ inconnuOn peut supposer qu'il s'agit de la situation réelle. Sans hypothèse sur la distribution de £p£ il n'y a alors pas de stratégie optimale. Cependant, si on sait que £p£ suit une loi normale par exemple, on peut déterminer la valeur de £m£ "ayant le plus de chance d'être optimale" en prenant £p_{opt}£ = mode de la loi de £p£. Des intervalles de confiance peuvent également être calculés via les caractéristiques de la loi normale.
£F£ est continue et strictement croissante, donc bijective. Pour £y \in [0,1]£ on a £\P(F(X) \leq y) = \P(X \leq F^{-1}(y)) = F(F^{-1})(y) = y£ . La VA £Y = F \circ X£ suit donc la loi uniforme sur £[0,1]£
Une fois simulé £u = F \circ X(\omega) \in [0,1]£, on obtient une réalisation de £X£ en calculant £F^{-1}(u)£.
Une méthode possible consiste à générer un nombre aléatoire dans £]0,1[£ de la façon suivante après £n£ lancers £L_1, \dots, L_n£ : ££x_n = \sum_{k=1}^{n} \frac{\delta_{L_k = \mbox{face}}}{2^k}££ (On considère les résultats du lancer de pièce comme les coefficients dans la décomposition en base 2). On arrête d'affiner la précision de £x = \lim_{n \to +\infty} x_n£ lorsque £x_n > p£ ou £x_n+\frac{1}{2^n} ≤ p£ – la variable simulée prenant alors respectivement les valeurs 0 et 1.
Preuve : à £n£ fixé, £\Omega = \{F,P\}^n£. Par définition de £x_n£ (écriture décimale en base 2), à chaque événement élémentaire de £\Omega£ correspond un unique rationnel du type £\sum_{k=1}^n \frac{\delta_k}{2^k}£. Ces derniers sont équirépartis dans £\left[0, 1 - \frac{1}{2^n}\right]£. Les événements élémentaires étant équiprobables, on obtient alors un rationnel choisi uniformément dans l'ensemble £E_n£ des décimaux en base 2 tronqués à la £n^{eme}£ décimale. Il reste à calculer £\P(x_n < p)£ : celle-ci est égale à la proportion de nombre décimaux rationnels du type £x_n£ inférieurs à £p£. Pour l'obtenir on remarque que £E_n = \frac{1}{2^n} \{0, 1, 2, \dots, 2^n-1\}£, et donc £\P(x_n < p) = \frac{\lfloor p \times 2^n \rfloor}{2^n}£.
Explication : à chaque lancer de pièce "si c'est face, on choisit un entier aléatoirement dans £[\negthinspace[1, n/2]\negthinspace]£" ; et, "si c'est pile on en choisit un dans £[\negthinspace[n/2, n]\negthinspace]£". Une difficulté survient quand £n£ est impair, car il reste alors un entier "au milieu". Dans ce cas j'ai simulé un entier dans £[\negthinspace[1, n+1]\negthinspace]£ et utilisé une méthode de rejet écartant le cas £n+1£.
Voici un programme Python exécutant cet algorithme :
from random import randint
def getRandInt(n):
if n == 1:
return n
else:
delta = n%2
p = (n - delta)//2
An = n+1
while An > n:
e = randint(0,1)
An = getRandInt(p+delta) + (p+delta) * e
return An
n = 100
counts = [0] * n
for i in range(100000):
counts[getRandInt(n)-1] += 1
print(counts)
Note : ce serait mieux sans la boucle while, la complexité dans le pire cas passant de £+\infty£ à £\ln{n}£. En pratique l'algorithme donné est suffisant car la probabilité de succès dans la boucle while est supérieure à 0.75. Cependant, si vous avez mieux je suis preneur.
£\E[Be] = 1 \times p + 0 \times (1-p) = p£,
£\mbox{Var}(Be) = \E[Be^2] - \E[Be]^2 = p - p^2 = p(1-p)£ car £Be = Be^2£.
Pour calculer la variance, on remarque que £k^2 = k(k-1) + k£.
££\begin{align*} \mbox{Var}(Bi) &= \sum_{k=0}^{n} k^2 C_n^k p^k (1-p)^{n-k} - n^2 p^2\\ &= np - n^2p^2 + n(n-1)p^2 \sum_{k=2}^{n} C_{n-2}^{k-2} p^{k-2} (1-p)^{n-2-(k-2)}\\ &= np - n^2p^2 + n(n-1)p^2\\ &= n(p - np^2 + (n-1)p^2)\\ &= np(1-p) \end{align*}£££Bi£ étant égale à la somme de £n£ VA de Bernouilli £Be£ indépendantes, les espérances et variances se somment.
£\P(F_i = k) = \frac{C_N^k (n-1)^{N-k}}{n^N}£ (cas favorables / cas possibles).
££\begin{align*} \E[F_i] &= \sum_{k=0}^N k \frac{C_N^k (n-1)^{N-k}}{n^N}\\ &= \frac{N}{n^N} \sum_{k=1}^N C_{N-1}^{k-1} (n-1)^{N-1-(k-1)}\\ &= \frac{N}{n^N} \sum_{k=0}^{N-1} C_{N-1}^k (n-1)^{N-1-k}\\ &= \frac{N}{n} \end{align*}££ ££\begin{align*} \mbox{Var}(F_i) &= \E[F_i^2] - \frac{N^2}{n^2}\\ &= \frac{N}{n} - \frac{N^2}{n^2} + \sum_{k=0}^N k(k-1) \frac{C_N^k (n-1)^{N-k}}{n^N}\\ &= \frac{N}{n} - \frac{N^2}{n^2} + \frac{N(N-1)}{n^N} \sum_{k=0}^{N-2} C_{N-2}^k (n-1)^{N-2-k}\\ &= \frac{N}{n} - \frac{N^2}{n^2} + \frac{N(N-1)}{n^2}\\ &= N \frac{n - 1}{n^2} \end{align*}£££F£ est égale au nombre total de tirages, puisqu'à chaque fois on obtient un nombre dans £[1, n]£.
Donc £\P(F = k) = \delta_{k=N}£, £\E[F] = N£ et £\mbox{Var}(F) = 0£.
£Y_n \in \{0, 1\}£
£\P(Y_n=1) = \P(X_n=1 \cap X_{n+1}=1) = p^2£, et £\P(Y_n=0) = 1-p^2£. Donc £Y_n \sim \cB(p^2)£.
£Y_n£ et £Y_{n+1}£ ne sont pas indépendantes car elles réutilisent la même VA £X_{n+1}£. On peut aussi le voir par le calcul de £\P(Y_n Y_{n+1} = 1) = \P(X_n=1 \cap X_{n+1}=1 \cap X_{n+2}=1) = p^3 \neq \P(Y_n=1) \P(Y_{n+1})£.
Par linéarité de l'espérance, £\E[U_n] = n \E[Y_1] = n p^2£.
£\mbox{Var}(U_n) = \E[U_n^2] - n^2 p^4£.
£U_n^2 = \sum_{i=1}^n Y_i^2 + 2 \sum_{i < j} Y_i Y_j£.
Il faut alors distinguer les paires £(Y_i, Y_j)£ dépendantes (pour £i£ et £j£ consécutifs) des paires indépendantes (toutes les autres).
On remarque que pour une paire indépendante, £\E(Y_i Y_j) = \E[Y_i] \E[Y_j] = p^4£, et £\E(Y_i Y_{i+1}) = p^3£.
££\begin{align*}
\mbox{Var}(U_n) &= n p^2 - n^2 p^4 + 2 (n-1) \E(Y_1 Y_2) + (n-1)(n-2) \E(Y_1 Y_3)\\
&= n p^2 - n^2 p^4 + (n-1) (2 p^3 + (n-2) p^4)\\
&= n p^2 + 2 (n-1) p^3 + (2 - 3n) p^4
\end{align*}££
Interprétation : £U_n£ correspondrait au nombre de point total marqués par un jour de badminton au bout de £n£ échanges, sachant qu'il a une probabilité £p£ fixée de les gagner. Une partie entre deux joueurs d'habiletés égales comporterait donc en moyenne £n = \frac{21}{p^2} = 84£ échanges (à vérifier expérimentalement...)
£X \sim \cP(\lambda)£. ££\begin{align*} \E[X] &= \sum_{k=0}^{+\infty} k \P(X = k)\\ &= e^{-\lambda} \sum_{k=0}^{+\infty} k \frac{\lambda^k}{k!}\\ &= \lambda e^{-\lambda} \sum_{k=1}^{+\infty} \frac{\lambda^{k-1}}{(k-1)!} = \lambda \end{align*} ££ ££\begin{align*} \mbox{Var}(X) &= \E[X^2] - \E[X]^2\\ &= e^{-\lambda} \sum_{k=0}^{+\infty} k(k-1) \frac{\lambda^k}{k!} + \lambda - \lambda^2\\ &= \lambda^2 + \lambda - \lambda^2 = \lambda \end{align*} ££
££\begin{align*} \P(X+Y = k) &= \sum_{j=0}^{k} \P(X+Y=k|Y=j) \P(Y=j)\\ &= \sum_{j=0}^{k} e^{-\lambda} \frac{\lambda^{k-j}}{(k-j)!} e^{-\mu} \frac{\mu^j}{j!}\\ &= e^{-\lambda-\mu} \frac{1}{k!} \sum_{j=0}^{k} C_k^j \lambda^{k-k} \mu^j\\ &= e^{-\lambda-\mu} \frac{(\lambda+\mu)^k}{k!} \end{align*} ££
On note £Y£ la VA du nombre d'oeufs pondus, et £q = 1-p£. ££\begin{align*} \P(Z = k) &= \sum_{j=k}^{+\infty} \P(Z=k|Y=j) \P(Y=j)\\ &= \sum_{j=k}^{+\infty} C_j^k p^k q^{j-k} e^{-\lambda} \frac{\lambda^j}{j!}\\ &= \frac{p^k}{k!} e^{-\lambda} \sum_{j=k}^{+\infty} \frac{1}{(j-k)!} q^{j-k} \lambda^j\\ &= \frac{(p\lambda)^k}{k!} e^{-\lambda} \sum_{j=0}^{+\infty} \frac{(q\lambda)^j}{j!}\\ &= e^{-p\lambda} \frac{(p\lambda)^k}{k!} \sim \cP(p\lambda) \end{align*} ££
Loi de Poisson £\Rightarrow£ £\E[Z] = p\lambda£
C'est le nombre de clients parmi £X£ qui ont choisi le guichet £A£.
£\P(S=k|X=n) = C_n^k p^k q^{n-k}£, loi binomiale.
C'est exactement le même calcul qu'à l'exercice précédent : £S \sim \cP(p\lambda)£.
On peut supposer que le nombre d'objets cassés par mois suit une loi de Poisson. Alors £X \sim \cP(3)£ et £Y \sim \cP(1)£.
£X+Y \sim \cP(3+1) = \cP(4)£
£\P(X+Y=0) = e^{-4}£
£X£ et £Z£ étant indépendantes par (défaut d') hypothèse, on calcule facilement les probabilités des 4 cas. De même, £\P(W=k | A_i)£ se calcule bien. La somme est cependant un peu longue à écrire et sans trop d'intérêt : je ne l'indique donc pas dans le corrigé.
£X \sim \cG\left(\frac{1}{6}\right)£.
Soient £n, k \in \N^*£. ££\begin{align*} \P(X > n+k | X > k) &= \frac{\P(X > n+k \cap X > k)}{\P(X > k)}\\ &= \frac{\P(X > n+k)}{\P(X > k)}\\ &= \frac{q^{n+k}}{q^k} = q^n = \P(X > n) \end{align*}££
Dans le cas d'une VA discrète à support dans £\N^*£, on note £G(n) = \P(X > n)£. Alors être sans mémoire équivaut à, pour tout £(n,m) \in \N^{*2}£ ££G(n+m) = G(n)G(m)££ Donc £G(n) = G(1)^{n-1} G(1)£ : £\P(X \leq n) = 1 - (1 - p)^n£. On reconnaît la loi géométrique.
Dans le cas d'une VA continue en notant encore £\P(X > x) = G(x)£, être sans mémoire est équivalent à avoir pour tout £(x,y) \in \R^2£ ££G(x+y) = G(x) G(y)££ Les solutions de cette équation sont de la forme £G(x) = e^{-\lambda x}£. Donc £F(x) = 1 - e^{-\lambda x}£ : on reconnaît la loi exponentielle. Remarque : dans un contexte "durée de vie d'un appareil", suivre une loi sans mémoire revient à ne pas s'user.
Soient £F_1£, £F_2£ et £F£ les fonctions de répartition de £X_1£, £X_2£ et £Y£. ££\begin{align*} F(y) &= \P(Y \leq y)\\ &= \P(X_1 \leq y \cup X_2 \leq y)\\ &= F_1(y) + F_2(y) - F_1(y)F_2(y) \mbox{ par independance}\\ &= (1-q_1^y) + (1-q_2^y) - (1-q_1^y)(1-q_2^y)\\ &= 1 - (q_1 q_2)^y \end{align*} ££ Donc £\P(Y = y) = F(y) - F(y-1) = (q_1 q_2)^{y-1} (1-q_1 q_2)£. Ou encore £Y \sim \cG(1-q_1 q_2)£.
£X \sim \cH \left(n, \frac{N_1}{N}, N \right)£ (définition de la loi hypergéométrique).
On reconnaît une loi hypergéométrique : £P(n) \sim \cH \left(s, \frac{N_1}{N}, N \right)£. ££\P(P(n) = k) = \frac{C_{r}^{k} \times C_{n-r}^{s-k}}{C_n^s}££
On observe que si £n \leq r£, tous les poissons pêchés seront marqués et donc £u_n = 1£ dès que £n \leq r£. Il faut aussi supposer £s \leq n£ et £k \leq s£. Alors, ££\begin{align*} u_n &= \frac{C_{n-r}^{s-k} \times C_{n-1}^s}{C_n^s \times C_{n-1-r}^{s-k}}\\ &= \frac{(n-s) (n-r)}{n (n-r-s+k)} \end{align*}££ Ainsi, ££\begin{align*} u_n > 1 &\Leftrightarrow (n-s) (n-r) > n (n-r-s+k)\\ &\Leftrightarrow rs > nk\\ \end{align*}££
£u_n < 1£ (resp. £u_n > 1£) correspond à £P(n) < P(n-1)£ (resp. £P(n) > P(n-1)£). On en déduit que £P(n) > P(n-1)£ tant que £n < \frac{rs}{k}£. La valeur de £n£ maximisant £P(n)£ est donc le plus petit entier inférieur ou égal à £\frac{rs}{k}£ : ££\hat{n} = \left\lfloor \frac{rs}{k} \right\rfloor££
Il faut commencer par choisir (arbitrairement) des valeurs numériques pour £r£ et £s£ – par exemple £r = s = 100£ – en faisant l'hypothèse que ces valeurs sous-estiment £n£. On prend £r = s = 100£, et on fait varier £n£ de 150 à 1050 par pas de 100. Pour chaque valeur de £n£ on effectue £N = 1000£ simulations de pêches de £s£ poissons en supposant les £r£ premiers marqués. On obtient 1000 estimations de £n£, dont on calcule la moyenne et l'écart-type afin de juger de l'efficacité de la méthode.
Voici le code R :
r = 100
s = r
nmin = 150
nmax = 1050
nstep = 100
nvalues = seq(nmin, nmax, nstep)
N = 1000
output = list()
counter = 1
for (n in nvalues) {
kvalues = rhyper(N, r, n-r, r)
# Attention aux divisions par zéro
kvalues = kvalues[kvalues > 0]
nestimates = floor(r*s / kvalues)
output[[counter]] = c(mean(nestimates), sqrt(var(nestimates)))
counter = counter + 1
}
L'estimation est acceptable pour £n \leq 350£, médiocre pour £450 \leq n \leq 650£ puis clairement mauvaise. C'est normal : la proportion de poissons pêchés diminue lorsque £n£ augmente, donc les divisions £\frac{rs}{k}£ sont de plus en plus imprécises. On peut corriger ce problème par une estimation adaptative qui augmente £r£ jusqu'à ce que la proportion de poissons marqués pêchés dépasse une certaine valeur fixée, 0.25 par exemple. Cela fonctionnera, mais revient à pêcher au moins le quart de l'étang...
£\E[X] = \frac{a+b}{2}£, £\mbox{Var}(X) = \frac{(b-a)^2}{2}£.
On utilise la formule £f_{X+Y} = f_X * f_Y£ dans le cas de VA indépendantes. Effectuons le calcul de £f_n£ avec £S_n = X_1 + \dots + X_n \in [0,n]£ pour £n=2£. ££\begin{align*} f_2(s) &= \int_{x=0}^{1} f(s-x) f(x) dx\\ &= \int_{\max(0, s-1)}^{\min(1, s)} 1 dx\\ &= \min(1, s) - \max(0, s-1)\\ &= s \delta_{s \leq 1} + (2-s) \delta_{s > 1} \end{align*}££ On reconnaît la fonction "triangle" symétrique avec £f(0) = 0, f(1) = 1, f(2) = 0£. Pour £n \geq 3£ le calcul est de plus en plus pénible, et on a du mal à reconnaître une formule (que l'on montrerait ensuite par récurrence). £S_n£ suit la loi de Irwin-Hall, dont l'expression de la densité n'est en effet pas triviale. ££f_n(x) = \frac{1}{(n-1)!} \sum_{k=0}^{\lfloor x \rfloor} (-1)^k C_n^k (x - k)^{n-1}££ Philip Hall l'obtient par des arguments géométriques.
£X,Y \sim \cU(0,1)£ ££\begin{align*} \P\left(\max(X,Y) > \frac{3}{4} \left| \min(X,Y) > \frac{1}{3} \right.\right) &= 2 \P\left(\max(X,Y) > \frac{3}{4} \left| \min(X,Y) > \frac{1}{3} \cap X < Y \right. \right) \P(X < Y)\\ &= \P\left(Y > \frac{3}{4} \left| Y > \frac{1}{3}\right. \right) \mbox{ par arguments de symetrie}\\ &= \frac{\P(Y > 3/4)}{\P(Y > 1/3)}\\ &= \frac{1}{4} \times \frac{3}{2} = \frac{3}{8} \end{align*} ££
Suivons les indications de l'énoncé : on cherche £\P(B|\overline{A}) = \P_{\overline{A}}(B)£. ££\begin{align*} \P_{\overline{A}}(B) &= \P_{\overline{A}}(B | C) \P_{\overline{A}}(C)\\ &= 1 \times \frac{\P(\overline{A}|C) \P(C)}{\P(\overline{A})}\\ &= \frac{(1 - F_{\ell}(x)) \times p}{\P(\overline{A}|C)\P(C) + \P(\overline{A}|\overline{C}) \P(\overline{C})}\\ &= \frac{p (1 - F_{\ell}(x))}{p (1 - F_{\ell}(x)) + 1 \times (1-p)}\\ &= \frac{1}{1 + \frac{(1-p)}{p (1 - x / \ell)}}\\ &= \frac{p(\ell-x)}{p(\ell -x) + \ell (1-p)}\\ &= \frac{\ell - x}{\ell/p - x}\\ \end{align*} ££ Le résultat n'est pas conforme à l'intuition qu'on aurait pu en avoir (£p \frac{\ell - x}{\ell}£). On vérifie cependant qu'il est juste, avec le petit programme R suivant. (En effet l'"intuition" calcule £\P(B) = \P(B|C) \P(C)£, incluant les cas où £A£ se réalise).
# Run N simulations; discard unwanted cases
getEmpiricProba = function(N, p, l, x) {
crevasses = rbinom(N, 1, p)
# About pN crevasses
nbCrevasses = sum(crevasses)
positions = runif(nbCrevasses, 0., l)
# Count B events: ~= nbCrevasses*(l-x)/l
nbBevents = sum(positions > x)
# Frequency of B among "not A" events.
# Formula ~= pN(1-x/l) / pN(1-x/l) + N - pN)
# = lp - px / l - px
return (nbBevents / (nbBevents + N - nbCrevasses) )
}
getTheoricProba = function(p, l, x) {
return ((l - x) / (l/p - x))
}
getWrongIntuition = function(p, l, x) {
return (p * (l - x) / l)
}
N = 100000
p = 0.2
l = 1.0
x = 0.4
cat(paste("Empirical:",getEmpiricProba(N,p,l,x),'\n'))
cat(paste("Expected:",getTheoricProba(p,l,x),'\n'))
cat(paste("(Wrong) intuition:",getWrongIntuition(p,l,x),'\n'))
p = 0.4
l = 2.0
x = 1.3
cat(paste("Empirical:",getEmpiricProba(N,p,l,x),'\n'))
cat(paste("Expected:",getTheoricProba(p,l,x),'\n'))
cat(paste("(Wrong) intuition:",getWrongIntuition(p,l,x),'\n'))
On distingue deux cas, suivant que la fève intersecte le centre de la galette ou non. On suppose que le centre de la fève est choisi uniformément sur le disque de rayon R-r. Notons £I£ l'événement "la fève intersecte le centre", et £F£ l'événement "le couteau rencontre la fève". Si £I£ n'est pas réalisé, on note £\delta£ la distance du centre de la galette au bord de la fève, et le secteur angulaire pour couper sur la fève vaut £2 \arcsin\left(\frac{r}{r+\delta}\right)£ (faire un dessin). ££\begin{align*} \P(F) &= \P(F|I)\P(I) + \P(F|\overline{I})\P(\overline{I})\\ &= 1 \times \frac{r^2}{(R-r)^2} + \frac{1}{\pi} \arcsin\left(\frac{r}{r+\delta}\right) \times \frac{R^2 - 2rR}{(R-r)^2}\\ &\simeq \frac{r^2}{(R-r)^2} + \frac{1}{\pi} \frac{r}{r+\delta} \frac{R^2 - 2rR}{(R-r)^2} \mbox{ DL de arcsin a l'ordre 1}\\ &\simeq \frac{1}{\pi} \frac{r}{r+\delta} \mbox{ suppression des termes d'ordre > 1} \end{align*}££
Notons £X_{a,b} = aX + b£. Pour £a > 0£, £\P(X_{a,b} \leq x) = \P\left(X \leq \frac{x-b}{a}\right)£, donc ££\begin{align*} f_{a,b}(x) &= \frac{d}{dx} F\left(\frac{x-b}{a}\right)\\ &= \frac{1}{a} f\left(\frac{x-b}{a}\right)\\ &= \frac{1}{a \sigma \sqrt{2 \pi}} \exp \left( \frac{(x-(a \mu +b))^2}{2 (a\sigma)^2} \right) \end{align*}££ On reconnaît £\cN(a\mu+b, a\sigma)£. Pour £a < 0£ le calcul est le même et on obtient £\cN(a\mu+b, -a\sigma)£, ce qu'on peut résumer en £X_{a,b} \sim \cN(a\mu+b, |a|\sigma)£.
£X \sim \cN(0,1) \Rightarrow X^2 \sim \chi^2(1)£ (cf. cours).
£\P\left(\frac{X^2}{2} \leq x \right) = \P(X^2 \leq 2x)£, donc £f_{X^2/2}(x) = 2 f_{X^2}(2x) = \frac{1}{\sqrt{\pi x}} e^{-x}£.
Si £X \sim \cN(\mu, \sigma)£ et £X' \sim \cN(\mu', \sigma')£, alors £X+Y \sim \cN(\mu+\mu', \sqrt{\sigma^2+\sigma'^2})£. Preuve : produit de convolution des densités, ou utiliser les fonctions caractéristiques + propriétés de la transformée de Fourier.
Après calcul en utilisant les questions i. et iii., on trouve £\frac{\sqrt{n}}{\sigma} \left( \frac{S_n}{n} - \mu \right) \sim \cN(0,1)£. Dans le cas général de £n£ VA iid., £S_n£ converge (dans un sens à préciser) vers une VA de loi £\cN(0,1)£ : c'est le théorème central limite.
Soit £X£ la VA donnant la masse en grammes d'un oeuf pondu. Les données du problème se traduisent par £\P(X < 53) \simeq \frac{104}{2000}£ et £\P(X > 63) \simeq \frac{130}{2000}£. £X£ est obtenu par une certaine transformation affine d'une VA normale centrée réduite (disons £Y£). Les proportions sont conservées, donc on recherche les quantiles £q_1 = \frac{104}{2000}£ et £q_2 = 1 - \frac{130}{2000}£ de £Y£. On ne peut pas résoudre l'équation intégrale £F(x) = q£, alors on regarde comme suggéré dans la table donnée à la fin du polycopié de cours : £x_1 = -1.65£ et £x_2 = 1.52£. Il reste juste à résoudre le système d'équations ££\left\{ \begin{align*} a x_1 + b &= 53\\ a x_2 + b &= 63 \end{align*}\right.££ On trouve £X \sim \cN(b, a)£ avec £a = \frac{10}{x_2 - x_1} \simeq 3.15£ et £b = \frac{53 x_2 - 63 x_1}{x_2-x_1} \simeq 58.21£.
Poids moyen d'un oeuf £\simeq b = 58.21g£.
On se ramène encore aux quantiles de £Y \sim \cN(0,1)£ : £q = \frac{71 - b}{a} \simeq 4.06£. La table fournit l'approximation trop grossière £F(q) \simeq 1.0000£. On a donc recourt à un logiciel (R dispose par exemple de la fonction pnorm calculant £F£), qui nous donne £F(q) \simeq 0.9999750397978£. Donc on peut espérer vendre £365 \times 2000 \times (1 - F(q)) \simeq 18£ très gros oeufs dans l'année (considérant la répétition de £365 \times 2000£ épreuves de Bernouilli avec un taux de succès égal à £1 - F(q)£).
Vérification empirique avec R :
totalTGO = 0
for (i in 1:100) {
totalTGO = totalTGO + sum(rnorm(2000*365, 58.21, 3.15) > 71)
}
totalTGO / 100
[1] 18
££\begin{align*} F_U(x) &= \P(X \leq x \cup Y \leq x)\\ &= F_X(x) + F_Y(x) - F_X(x) F_Y(x) \mbox{ par indépendance}\\ F_V(x) &= \P(X \leq x \cap Y \leq x)\\ &= F_X(x) F_Y(x) \end{align*}££ Donc £f_U(x) = f_X(x) (1 - F_Y(x)) + f_Y(x) (1 - F_X(x))£, et £f_V(x) = f_X(x) F_Y(x) + f_Y(x) F_X(x)£.
Si £X \sim \cE(\lambda)£, alors £F_X(x) = 1 - e^{-\lambda x}£. On en déduit d'après la formule précédente, avec £U_n = \min(X_1,\dots,X_n)£ : ££\begin{align*} f_{U_2}(x) &= \lambda_1 e^{-\lambda1 x} e^{-\lambda_2 x} + \lambda_2 e^{-\lambda_2 x} e^{-\lambda_1 x}\\ &= (\lambda_1 + \lambda_2) e^{-(\lambda_1+\lambda_2)x} \end{align*}££ Soit £U_2 \sim \cE(\lambda_1+\lambda_2)£. Par récurrence immédiate, £U_n \sim \cE(\sum_{i=1}^n \lambda_i)£.
C'est une application directe de la question précédente : £Y \sim \cE(\sum_{i=1}^n \lambda_i)£.
On suppose £\theta > 0£ (sinon £e^{-1/\theta} > 1£). Alors pour £k \in \N^*£ ££\begin{align*} \P(Y = k) &= \P(\lceil \theta X \rceil = k)\\ &= \P(k-1 < \theta X \leq k)\\ &= F(k) - F(k-1)\\ &= e^{-(k-1)/\theta} ( 1 - e^{-1/\theta} ) \end{align*}££ On reconnaît la loi géométrique de paramètre £p = 1 - e^{-1/\theta}£.
Vérifions que £f_X£ est une densité : ££\int_{1}^{+\infty} f_X(x) dx = [-x^{-1/\theta}]_1^{+\infty} = 1^{-1/\theta} = 1££ Puis on calcule £F_X(x) = [-t^{-1/\theta}]_1^x = 1 - x^{-1/\theta}£.
£\P(0 \leq X < 2) = F_X(2) = 1 - 2^{-1/\theta}£.
£X£ admet une espérance ssi. £x \mapsto x^{-1/\theta}£ est intégrable. C'est-à-dire ssi. £\frac{-1}{\theta} < -1£ ; ou, autrement dit ssi. £\theta < 1£.
Dans ce cas, ££\begin{align*} \E[X] &= \int_{1}^{+\infty} \frac{1}{\theta} x^{-1/\theta} dx\\ &= \left[ \frac{-1}{1-\theta} x^{\frac{-1+\theta}{\theta}} \right]_1^{+\infty}\\ &= \frac{1}{1-\theta} \end{align*}££
£\varphi(t) = \E[e^{itX}] = \int_{\Omega} e^{itX(\omega)} d\P(\omega) = \int_{\R} e^{itx} d\P_X(x)£. Après calculs :
Pas de difficultés particulières, hormis pour la fonction caractéristique de la loi normale. Il y a (au moins) deux méthodes de calcul de cette dernière : remarquer que £\varphi(t) = \frac{1}{\sqrt{2 \pi}} \int_{\R} \cos{t x} e^{-x^2/2} dx£ puis par intégration par parties que £\varphi'(t) = -t \varphi(t)£, ou écrire £itx - \frac{x^2}{2} = -\left( \frac{x}{\sqrt{2}} + \frac{it}{\sqrt{2}} \right)^2 - \frac{t^2}{2}£ puis effectuer le changement de variable £u = \frac{x}{\sqrt{2}} + \frac{it}{\sqrt{2}}£ et intégrer dans le plan complexe.
£\varphi_{X+Y} = \varphi_X . \varphi_Y£, £\varphi_{aX+b} = e^{ibt} \varphi(at)£ (cf. cours)
On calcule £\varphi_{X+Y} = \varphi_X . \varphi_Y£ puis conclut grâce à l'injectivité de la transformée de Fourier (admise dans le cours).
Cf. cours
Non : prenons £X_n = Y \sim \cB\left(\frac{1}{2}\right)£, suite constante et convergente en loi vers £X = 1-Y£ ; mais £X_n - X = 2Y - 1£ ne converge pas en loi vers £0£.
Lemme (utile à cette question et aux suivantes) : ²²n p_n \longrightarrow \lambda \in \R \quad \Rightarrow \quad (1 - p_n)^n \longrightarrow e^{-\lambda}²² Pour voir cela on écrit ²(1-p_n)^n = \exp(n \ln(1-p_n))² puis ²²- n \sum_{r=1}^{+\infty} p_n^r \leq n \ln(1-p_n) = - n \sum_{r=1}^{+\infty} \frac{p_n^r}{r} \leq - n p_n²² (cf. développement en série du logarithme, valable sur £]-1,1[£). Après calculs (série géométrique) on obtient ²-n \frac{p_n}{1-p_n} \leq n \ln(1-p_n) \leq - n p_n². Les termes à gauche et à droite convergent vers ²-\lambda², ce qui permet de conclure d'après le théorème des gendarmes.
²²\begin{align*} \P(X_n = k) &= (1 - p_n)^{n-k} \times p_n n \times p_n (n-1) \times \dots \times p_n (n-k+1) \times \frac{1}{k!}\\ &\longrightarrow e^{-\lambda} \left( \prod_{i=0}^{k-1} \underset{n \to +\infty}{\lim} p_n (n-i) \right) \frac{1}{k!} = e^{-\lambda} \frac{\lambda^k}{k!} \end{align*}²² On reconnnaît la loi de Poisson.
²X \sim \cH(N,n,p)². ²²\begin{align*} \P(X = k) &= \binom{pN}{k} \, \binom{qN}{n-k} \, / \, \binom{N}{n}\\ &= \binom{n}{k} \frac{(pN)!}{(pN-k)!} \frac{(qN)!}{(qN-(n-k))!} \frac{(N-n)!}{N!}\\ &\simeq \binom{n}{k} \sqrt{\frac{pN}{pN-k}} \left(\frac{pN}{e}\right)^{pN} \left(\frac{e}{pN-k}\right)^{pN-k}\\ &\qquad . \sqrt{\frac{qN}{qN-(n-k)}} \left(\frac{qN}{e}\right)^{qN} \left(\frac{e}{qN-(n-k)}\right)^{qN-(n-k)}\\ &\qquad . \sqrt{\frac{N-n}{N}} \left(\frac{N-n}{e}\right)^{N-n} \left(\frac{e}{N}\right)^{N} \text{ (formule de Stirling)}\\ &\simeq \binom{n}{k} \frac{(pN)^{pN}}{(pN-k)^{pN-k}} \frac{(qN)^{qN}}{(qN-(n-k))^{qN-(n-k)}} \frac{(N-n)^{N-n}}{N^N}\\ &= \binom{n}{k} \frac{(pN)^k}{N^k} \frac{(qN-(n-k))^{n-k}}{N^{n-k}} \left( \frac{pN}{pN-k} \right)^{pN} \left( \frac{qN}{qN-(n-k)} \right)^{qN} \left( \frac{N-n}{N} \right)^{N-n}\\ &\simeq \binom{n}{k} p^k q^{n-k} \left(1 - \frac{k}{pN}\right)^{-pN} \left(1 - \frac{n-k}{qN}\right)^{-qN} \left(1 - \frac{n}{N} \right)^{N-n}\\ &\longrightarrow \binom{n}{k} p^k q^{n-k} e^{k} e^{n-k} e^{-n} = \binom{n}{k} p^k q^{n-k} \text{ (utiliser le lemme) } \end{align*}²² On reconnaît la loi binomiale.
²Y_n = \frac{X_n}{a_n}². ²²\begin{align*} \P(Y_n \leq x \in \R^+) &= \P(X_n \leq x a_n)\\ &= 1 - \P(X_n > x a_n)\\ &= 1 - (1-p_n)^{\lceil x a_n \rceil}\\ &\longrightarrow 1 - \exp\left(-\lim_{n \to +\infty} p_n \lceil x a_n \rceil\right) = 1 - e^{-\lambda} \, ,\\ &\text{ car } p_n a_n x \leq p_n \lceil x a_n \rceil \leq p_n a_n x + p_n \end{align*}²² On reconnaît la fonction de répartition de la loi exponentielle.
Typo dans l'énoncé : ²\frac{1}{n^2} \sum_{k=1}^{n} \sigma_n^2 \longrightarrow 0². (Sinon ça ne peut pas converger vers une constante).
Soit ²\varepsilon > 0².
Notons ²\overline{X_n} = \frac{1}{n} \sum_{k=1}^{n} X_k². Alors ²\E[\overline{X_n}] = \frac{1}{n} \sum_{k=1}^{n} \mu_k² et
²\text{Var}(\overline{X_n}) = \frac{1}{n^2} \sum_{k=1}^{n} \sigma_k^2², et on veut majorer ²\P(|\overline{X_n} - \mu| > \varepsilon)².
Écrivons alors
²²\begin{align*}
|\overline{X_n} - \mu| &= |\overline{X_n} - \E[\overline{X_n}] + \E[\overline{X_n}] - \mu|\\
&\leq |\overline{X_n} - \E[\overline{X_n}]| + |\E[\overline{X_n}] - \mu|\\
\Rightarrow \,\, & \P(|\overline{X_n} - \mu| > \varepsilon) \leq \P(|\overline{X_n} - \E[\overline{X_n}]| + |\E[\overline{X_n}] - \mu| > \varepsilon) = \P(|\overline{X_n} - \E[\overline{X_n}]| > \varepsilon - |\E[\overline{X_n}] - \mu|)
\end{align*}²²
On applique finalement l'inégalité de Bienaymé-Tchebyshev :
²²\P(|\overline{X_n} - \E[\overline{X_n}]| > \varepsilon - |\E[\overline{X_n}] - \mu|) \leq \frac{\text{Var}(\overline{X_n})}{(\varepsilon - |\E[\overline{X_n}] - \mu|)^2} \, .²²
Le terme de droite tend vers 0 par hypothèse, ce qui prouve le résultat.
²p = \frac{1}{500}², ²n = 2000². ²p² étant "plutôt petit" et ²n² "plutôt grand", l'approximation par une loi de Poisson est légitime : ²\P(X \leq 5) \simeq e^{-4} \sum_{k=0}^{5} \frac{4^k}{k!} \simeq 0.79², soit pas loin de 80% de chances de faire 5 fautes ou moins.
²Y_n = \frac{X_n}{n}² où ²X_n² est égal au nombre de fous parmi ²n² individus. ²X_n² est une somme de ²n² VA de Bernouilli de paramètre ²p², donc ²Y_n² a même loi que ²Z_n = \frac{1}{n} \sum_{k=1}^{n} Ber(p)². On applique alors l'inégalité de Bienaymé-Tchebyshev : ²²\P(|Y_n - 0.09| > 0.001) \leq \frac{\text{Var}(Y_n)}{0.001^2} = \frac{p q}{n 0.001^2}²² Être dans l'intervalle ²[0.009, 0.011]² avec probabilité ²\geq 0.9² est équivalent à être en dehors de cet intervalle avec probabilité ²\leq 0.1². On cherche donc à résoudre ²\frac{p q}{n 0.001^2} = 0.1², soit ²n = \frac{0.01 \times 0.99}{1e^{-7}} = 99000²
D'après le théorème de De Moivre-Laplace, ²\sqrt{\frac{n}{p q}} (Y_n - p) = \frac{n Y_n - n p}{\sqrt{n p q}}² suit asymptotiquement la loi normale ²\cN(0,1)². Pour "²n² grand" on écrit donc ²²\begin{align*} \P(Y_n \in [0.009, 0.011]) &= \P\left(\sqrt{\frac{n}{p q}} (Y_n - p) \in \left[ \sqrt{\frac{n}{p q}} (0.009 - p), \sqrt{\frac{n}{p q}} (0.011 -p) \right] \right)\\ &\simeq \Phi\left(\sqrt{\frac{n}{p q}} 0.001 \right) - \Phi\left(- \sqrt{\frac{n}{p q}} 0.001 \right)\\ &= 1 - 2 \Phi\left(- \sqrt{\frac{n}{p q}} 0.001 \right) \end{align*}²² où ²\Phi² est la fonction de répartition de ²\cN(0,1)², la dernière ligne découlant de la symétrie de la loi normale. La résolution de l'équation ²1 - 2 \Phi\left(- \sqrt{\frac{n}{p q}} 0.001 \right) = 0.9² mène à ²n = 164² environ.
Attention cependant : en effectuant cette approximation on fait une erreur sur la probabilité ²\P(Y_n \in [0.009, 0.011])², qui est quantifiée par l'inégalité de Berry-Esseen. Cette dernière permet d'écrire ²²\begin{align*} \P(Y_n \in [0.009, 0.011]) &= \left|F_n\left(\sqrt{\frac{n}{p q}} 0.001\right) - F_n\left(-\sqrt{\frac{n}{p q}} 0.001\right)\right|\\ &= \left|F_n\left(\sqrt{\frac{n}{p q}} 0.001\right) - \Phi\left(\sqrt{\frac{n}{p q}} 0.001\right) + \Phi\left(\sqrt{\frac{n}{p q}} 0.001\right)\right.\\ &\quad \left. - \Phi\left(-\sqrt{\frac{n}{p q}} 0.001\right) + \Phi\left(-\sqrt{\frac{n}{p q}} 0.001\right) - F_n\left(-\sqrt{\frac{n}{p q}} 0.001 \right)\right|\\ &\in \left[ \left|\Phi\left(\sqrt{\frac{n}{p q}} 0.001\right) - \Phi\left(-\sqrt{\frac{n}{p q}} 0.001\right)\right| - \frac{\rho}{\sigma^3 \sqrt{n}}, \right.\\ &\quad \left. \left|\Phi\left(\sqrt{\frac{n}{p q}} 0.001\right) - \Phi\left(-\sqrt{\frac{n}{p q}} 0.001\right)\right| + \frac{\rho}{\sigma^3 \sqrt{n}} \right] \end{align*}²² avec ²F_n² la fonction de répartition de ²Z_n = \sqrt{\frac{n}{p q}} (Y_n - p)², ²\sigma² son écart-type et ²\rho² son moment d'ordre 3. Pour une comparaison juste avec l'inégalité de Bienaymé-Tchebyshev, il faut donc en outre choisir ²n² tel que ²\frac{\rho}{\sigma^3 \sqrt{n}} < 0.005² : cela assure que la probabilité recherchée vaut 0.9 avec une erreur inférieure à 0.5%. Après calculs (attention : faux pour ²\rho²) ²\sigma = 1² et ²\rho = \frac{|1 - 2p|}{\sqrt{npq}}², puis ²n \simeq 1970².
Pour ²n=10² on n'approxime rien du tout, il ne faut pas exagérer :) Avec les notations de l'exercice précédent on cherche ²²\P(Y_n \geq 0.5) = \P(X_n \geq 5) = \sum_{k=5}^{10} \binom{10}{k} p^k q^{n-k} \, ,²² où ²p = 0.45². Le calcul donne environ ²0.4956², et peut être effectué avec le logiciel R comme suit
p = 0.45 ; q = 0.55
proba = 0
n = 10
for (k in (n/2):n)
proba = proba + choose(n,k) * p^k * q^(n-k)
À partir de ²n=100² l'approximation par une loi normale est raisonnable (sans forcément être juste). On écrit comme pour l'exercice précédent ²²\begin{align*} \P(Y_n \geq 0.5) &= \P\left(\sqrt{\frac{n}{p q}} (Y_n - p) \geq \sqrt{\frac{n}{p q}} (0.5 - p) \right)\\ &\simeq \Phi\left(- \sqrt{\frac{n}{p q}} (0.5 - p) \right) \, , \end{align*}²² par symétrie de la loi normale. Pour ²n=100² on obtient ²\P(Y_n \geq 0.5) \simeq 0.16², et pour ²n=1000² : ²\P(Y_n \geq 0.5) \simeq 7.4e^{-4}².
En fait R parvient à faire le calcul (car les coefficients binomiaux peuvent être obtenus sans calculer les factorielles complètes). On obtient respectivement ²0.18² et ²8.5e^{-4}², indiquant que l'approximation par le TCL est légèrement biaisée vers le bas.
²n² est fixé de façon à ce qu'à chaque sondage sur ²n² individus, la probabilité d'obtenir un résultat favorable au président est de 0.15. (D'après la question précédente on sait que ²n² est de l'ordre de 100). Un sondage peut alors être considéré comme une épreuve de Bernouilli de probabilité de succès fixe : ²r = 0.15². On note ²S_k² le résultat du ²k^{\mbox{eme}}² sondage, dans ²\{0, 1\}².
La probabilité d'avoir au moins un sondage favorable parmi ²N² effectués s'écrit ²P_1 = 1 - \P(\sum_{k=1}^{n} S_k = 0)², soit ²1 - \P(X_N = 0) = 1 - (1 - r)^N² avec ²X_n \sim \cB(N, r)². Reste à résoudre l'équation ²(1 - r)^N = 0.1² en ²N². On obtient ²N = \lceil \frac{\ln 0.1}{\ln 0.85} \rceil = 15², donc il faut au moins 15 sondages.
On peut raisonnablement supposer devoir chercher la probabilité que 99 pièces pèsent entre 995 et 1005 grammes, ou bien
que 101 pièces pèsent entre 995 et 1005 grammes (l'énoncé n'est pas très clair), car on arrêterait alors la formation du lot à ce stade.
La somme de ²n² VA de loi normale ²\cN(10,0.15)² suivant la loi normale ²\cN(10n, 0.15 \sqrt{n})², on en déduit que la probabilité ²P_1² recherchée vaut
²²P_1 = \sum_{n \in \{99, 101\}} \Phi\left(\frac{1005 - 10 \times n}{0.15 \sqrt{n}}\right) - \Phi\left(\frac{995 - 10 \times n}{0.15 \sqrt{n}}\right) \simeq 8.6e^{-4}²²
avec ²\Phi² fonction de répartition de la loi normale centrée réduite.
On peut aussi calculer la probabilité de faire une erreur d'au moins une unité :
²²\begin{align*}
P_{1+} &= 1 - \P(\cN(10 \times 100, 0.15 \sqrt{100}) \in [995, 1005])\\
&= 1 - \Phi\left(\frac{1005 - 10 \times 100}{0.15 \sqrt{100}}\right) + \Phi\left(\frac{995 - 10 \times 100}{0.15 \sqrt{100}}\right)\\
&\simeq 8.6e^{-4}
\end{align*}²²
On est donc quasi sûr de ne pas faire d'erreur, et s'il y a une erreur elle n'excède pas une unité.
On applique le TCL (même si ²n = 50² est assez limite). ²²\begin{align*} \P(S > 1050) &= \P\left(\frac{S - 50 \times 20}{1 \times \sqrt{50}} > \frac{1050 - 50 \times 20}{\sqrt{50}} \right)\\ &\simeq \P(\cN(0,1) > \sqrt{50})\\ &\simeq 7.7e^{-13} \end{align*}²² Obtenir un total supérieur à 1050 semble donc fort peu probable.
Il faut commencer par traduire l'énoncé. En l'occurrence, le nombre de clients ²C_1² souhaitant le plat 1 (je les numérote : c'est plus simple) suit la loi binomiale ²\cB(n, p)² tandis que le nombre de clients souhaitant le plat 2 est déterminé par ²C_2 = n - C_1². Ensuite, "toute la clientèle est satisfaite" équivaut à ²np + s \geq C_1² et ²n(1-p) + s \geq C_2², conditions équivalentes à ²np - s \leq C_1 \leq np + s². On cherche donc ²s² tel que ²\P(C_1 \in [\negthinspace[np-s, np+s]\negthinspace]) \simeq 0.95².
²n² étant "grand" (²\geq 100²), l'approximation par une loi normale est légitime. On applique donc le théorème de De Moivre-Laplace. ²²\begin{align*} \P(C_1 \in [\negthinspace[np-s, np+s]\negthinspace]) &= \P\left(\frac{C_1 - np}{\sqrt{n p (1-p)}} \in \left[ -\frac{s}{\sqrt{n p (1-p)}}, \frac{s}{\sqrt{n p (1-p)}} \right]\right)\\ &\simeq \P\left(\cN(0,1) \in \left[ -\frac{s}{\sqrt{n p (1-p)}}, \frac{s}{\sqrt{n p (1-p)}} \right]\right)\\ &= 1 - 2 \Phi\left(-\frac{s}{\sqrt{n p (1-p)}}\right) \end{align*}²² On cherche donc ²s² tel que ²\Phi\left(-\frac{s}{\sqrt{n p (1-p)}}\right) = 0.025², c'est-à-dire ²\frac{s}{\sqrt{n p (1-p)}} \simeq 1.96². On obtient en arrondissant à l'entier supérieur :
Le pourcentage moyen de plats 1 (resp. 2) non consommés s'écrit ²\frac{s}{np+s}² (resp. ²\frac{s}{n(1-p)+s}²). Cette dernière quantité est la plus grande : il faut donc préférer le plat le plus populaire pour diminuer le risque de manger les restes de la veille...
L'expérience s'est (d'après les nombres de l'énoncé) déroulée avec ²\ell = \frac{L}{2}² où ²L² est la largeur d'une lame de parquet. On obtient donc l'excellente approximation ²\pi \simeq \frac{220}{70} = \frac{22}{7} \simeq 3.1529²
Chaque lancer d'aiguille correspondant à une épreuve de Bernouilli de paramètre ²p = \frac{1}{\pi}² ; la somme suit donc la loi binomiale ²\cB(n,p)². On applique le théorème de De Moivre-Laplace avec ²n=220² : ²²\begin{align*} \quad& \P\left( \frac{S_{220}\pi - 220}{\sqrt{220 (\pi-1)}} \in \left]\frac{69.5\pi - 220}{\sqrt{220 (\pi-1)}}, \frac{70.5\pi - 220}{\sqrt{220 (\pi-1)}}\right[ \right)\\ &\simeq \Phi\left(\frac{70.5\pi - 220}{\sqrt{220 (\pi-1)}}\right) - \Phi\left(\frac{69.5\pi - 220}{\sqrt{220 (\pi-1)}}\right)\\ &\simeq 0.058 \end{align*}²² Il semble donc que Bob aie eu beaucoup de chance... Ceci dit, si l'on cherche (par le même calcul) la probabilité d'obtenir entre 65 et 75 intersections (en arrondissant à l'entier le plus proche après approximation par le TCL), on trouve une probabilité d'environ ²0.57². Obtenir 70 est donc tout à fait plausible.
²\pi² est approximé par ²\frac{n}{S_n}², donc on cherche ²n² tel que ²P = \P\left(\frac{n}{S_n} \in ]\pi - 5e^{-4}, \pi+5e^{-4}[\right) \geq 0.95². On écrit alors ²²\begin{align*} P &= \P\left( S_n \in \left] \frac{n}{\pi+5e^{-4}}, \frac{n}{\pi-5e^{-4}} \right[ \right)\\ &= \P\left( \frac{S_n \pi - n}{\sqrt{n(\pi-1)}} \in \left] - \frac{\sqrt{n}}{\sqrt{\pi-1}} \frac{5e^{-4}}{\pi+5e^{-4}}, \frac{\sqrt{n}}{\sqrt{\pi-1}} \frac{5e^{-4}}{\pi-5e^{-4}} \right[ \right)\\ &\simeq \P\left( \cN(0,1) \in \left] - \frac{\sqrt{n}}{\sqrt{\pi-1}} \frac{5e^{-4}}{\pi+5e^{-4}}, \frac{\sqrt{n}}{\sqrt{\pi-1}} \frac{5e^{-4}}{\pi-5e^{-4}} \right[ \right)\\ &= \Phi(a_n) - \Phi(-b_n) \, , \end{align*}²² avec ²a_n = \frac{\sqrt{n}}{\sqrt{\pi-1}} \frac{5e^{-4}}{\pi-5e^{-4}}² et ²b_n = \frac{\sqrt{n}}{\sqrt{\pi-1}} \frac{5e^{-4}}{\pi+5e^{-4}}². ²a_n > b_n², donc ²1 - 2 \Phi(-b_n) \leq P \leq 1 - 2 \Phi(-a_n)², ce qui permet d'encadrer ²n² entre 324679251 et 324886014 : il faut choisir ²n² de l'ordre de 325 millions.
²X² et ²Y² sont indépendantes et suivent la loi uniforme dans ²[0,1]² (translation de l'intervalle [19h, 20h]). On cherche la probabilité que ²|X - Y| < \frac{1}{6}² (dix minutes = un sixième d'heure). On la calcule via l'intégrale suivante ²²\begin{align*} \P\left(|X - Y| < \frac{1}{6} \right) &= \int_{x=0}^{1} \int_{y=\max(0, x-1/6)}^{\min(1, x+1/6)} 1 dx dy\\ &= \int_{0}^{1} \min(1, x+1/6) - \max(0, x-1/6) dx\\ &= \int_{1/6}^{1-1/6} \frac{1}{3} dx + 2 \int_{0}^{1/6} x + \frac{1}{6} dx\\ &= \frac{2}{9} + 2 \left( \frac{1}{72} + \frac{1}{36} \right)\\ &= \frac{2}{9} + \frac{1}{12} = \frac{11}{36} \, , \end{align*}²² soit un peu moins d'une chance sur trois.
Si Alice n'en tient pas compte, je ne vois pas ce que ça peut changer. Si elle en tient compte et décide par exemple d'arriver à un instant aléatoire à partir de l'horaire ²t_0² indiqué par Bob, alors il faut effectuer le calcul ²\int_{y=t_0}^{\min(t_0+1/6, 1)} \frac{1}{1-t_0} dy². On trouve logiquement 1 si ²t_0² est après 19h50, et ²\frac{1}{6(1-t_0)}² sinon. Intégrant ce résultat pour ²t_0² variant entre 0 et 1 on obtient la probabilité qu'Alice rencontre Bob sachant qu'elle arrive après lui : ²²P = \frac{1}{6} + \int_{0}^{1-1/6} \frac{dt}{6(1-t)} = \frac{1}{6} + \frac{\ln{6}}{6} \simeq 0.47²² Presque une chance sur deux.
La situation est similaire à celle de l'exercice 34, mais tout de même différente. On commence par appliquer la formule des probabilités totales avec ²V² = "voir Alice", ²R² = "elle est déjà arrivée et repartie" et ²A² = "elle n'est pas encore arrivée" à un instant fixé ²t_0². ²²\begin{align*} P_{t_0}(V) &= \P_{t_0}(V|R) \P_{t_0}(R) + \P_{t_0}(V|A) \P_{t_0}(A)\\ &= 0 + \frac{\min(1/6, 1-t_0)}{1-t_0} \frac{1-t_0}{1 - 0}\\ &= \min(1/6, 1-t_0) \end{align*}²² Intégrant ensuite ce résultat sur ²[0,1]² on obtient ²²\begin{align*} P &= \int_{0}^{1} P_t(V) dt\\ &= \frac{1}{6} \int_{0}^{1-1/6} 1 dt + \int_{1-1/6}^{1} (1-t) dt\\ &= \frac{5}{36} + \frac{1}{72} = \frac{11}{72} \, , \end{align*}²² soit un peu plus d'une chance sur sept.
²Y = 0² | ²Y = 1² | ²Y = 2² | ²P_X² | |
---|---|---|---|---|
²X = 0² | 0 | 1/8 | 1/8 | 1/4 |
²X = 1² | 1/8 | 1/4 | 1/8 | 1/2 |
²X = 2² | 1/8 | 1/8 | 0 | 1/4 |
²P_Y² | 1/4 | 1/2 | 1/4 |
Cf. marges du tableau. ²\P(X=0 \cap Y = 0) = 0 \neq \P(X = 0) \P(Y = 0)² donc pas indépendance.
²²\text{Cov}(X,Y) = \sum_{i,j} p_{i,j} x_i y_j - \E[X] \E[Y] = \frac{3}{4} - 1 = -\frac{1}{4}²² Corrélation légèrement négative : quand ²X² augmente, ²Y² a tendance à diminuer (et réciproquement).
Triangle de sommets (0,0), (1,0) et (1,1)
²\int_{x=0}^{1} \int_{y=0}^{x} 8 x y dx dy = \int_{0}^{1} \frac{8 x^3}{2} dx = 1²
²f_X(x) = \int_{y=0}^{x} 8 x y dy = 4 x^3²
²f_Y(y) = \int_{x=y}^{1} 8 x y dx = 4 y (1 - y^2)²
²²\begin{align*} \text{Cov}(X,Y) &= \E[XY] - \E[X]\E[Y]\\ &= \int_{x=0}^{1} \int_{y=0}^{x} 8 x^2 y^2 dx dy - \int_{0}^{1} x f_X(x) dx \int_{0}^{1} y f_Y(y) dy\\ &= \frac{4}{9} - \frac{4}{5} \times \left(\frac{4}{3} - 1\right)\\ &= \frac{20}{45} - \frac{12}{45} = \frac{8}{45} \end{align*}²²
Indépendantes ²\Rightarrow² covariance nulle. Donc pas indépendance.
²\int_{x=0}^{+\infty} \int_{y=0}^{+\infty} e^{-x} e^{-2y} dx dy = \frac{1}{2}², donc ²\alpha = 2²
²f_X(x) = \int_{y=0}^{+\infty} 2 e^{-x} e^{-2y} dy = e^{-x}² : densité de la loi exponentielle ²\cE(1)².
²²\begin{align*} \P(X < Y) &= \int_{x=0}^{+\infty} \int_{y=x}^{+\infty} 2 e^{-x} e^{-2y} dx dy\\ &= \int_{0}^{+\infty} e^{-3x} dx\\ &= \frac{1}{3} \end{align*}²² C'est cohérent car ²Y² suit marginalement la loi ²\cE(2)², dont la moyenne est inférieure à ²\cE(1)². On pouvait s'attendre à ce que ²\P(X < Y)² soit inférieur à 0.5.
Oui : densité du couple = produit des densités marginales.
Triangle de sommets (0,0), (1,0) et (1,1) privé de la diagonale ²u = v².
²\int_{u=0}^{1} \int_{v=0}^{u} u(u-v) du dv = \int_{0}^{1} \frac{u^3}{2} = \frac{1}{8}², donc ²\alpha = 8².
²f_U(u) = \int_{v=0}^{u} 8 u(u-v) dv = 4 u^3²
²f_V(v) = \int_{u=v}^{1} 8 u(u-v) du = \frac{8}{3} - \frac{8 v^3}{3} - 4v + 4v^3 = \frac{4v^3}{3} - 4v + \frac{8}{3}²
²²\begin{align*} \text{Cov}(X,Y) &= \E[XY] - \E[X]\E[Y]\\ &= \int_{u=0}^{1} \int_{v=0}^{u} 8 (u^3 v - u^2 v^2) du dv - \int_{u=0}^{1} 4 u^4 du - \int_{u=0}^{1} \left( \frac{4v^4}{3} - 4v^2 + \frac{8v}{3} \right) dv\\ &= ... \text{ (un truc non nul)} \end{align*}²²
Non car la covariance calculée est non nulle.
²² \P(Y=k \text{ et } X = \ell) = \left\{ \begin{align*} & \frac{1}{18} \text{ si } k < \ell < 2k \, ,\\ &\frac{1}{36} \text{ si } \ell = 2k \, ,\\ &0 \text{ sinon} \end{align*} \right. ²² On peut vérifier que ²\sum p_{k,\ell} = 1²
²\P(Y = k) = \frac{1}{36} + \delta_{k \geq 2} \sum_{\ell=k+1}^{2k-1} \frac{1}{18} = \frac{2k - 1}{36}²
Pour ²2 \leq \ell \leq 12² : ²²\begin{align*} \P(X = \ell) &= \frac{\delta_{\ell \text{ pair}}}{36} + \sum_{k=1}^{6} \frac{\delta_{k < \ell < 2k}}{18}\\ &= \frac{\delta_{\ell \text{ pair}}}{36} + \sum_{k=\left\lfloor \frac{\ell}{2} \right\rfloor + 1}^{\ell-1} \frac{1}{18}\\ &= \frac{1}{36} \left( \delta_{\ell \text{ pair}} + 2 \left(\ell - 1 - \left\lfloor \frac{\ell}{2} \right\rfloor \right) \right) \end{align*}²²
Non : ²p_{6,6} = 0 \neq \P(X = 6) \P(Y = 6)²
²²\begin{align*} \P(Y = k|X = 6) &= \frac{\P(Y = k \text{ et } X = 6)}{\P(X = 6)}\\ &= \frac{36}{5} \P(Y = k \text{ et } X = 6)\\ &= 0 \, , \frac{1}{5} \text{ ou } \frac{2}{5} \text{ suivant les cas} \end{align*}²²