main
Sébastien Miquel 2025-11-20 21:57:27 +01:00
parent 9577218de0
commit d0cdf0cd5d
1 changed files with 103 additions and 54 deletions

View File

@ -399,7 +399,11 @@ Soient $n, m \in \mathbb{N}^*$ avec $m$ < $n$. Soit $\mathcal{P}_{n,m}$ l'ensemb
#+BEGIN_proof #+BEGIN_proof
Si $m = 0$, c'est $0$. Si $m = 0$, c'est $0$.
Si $m = 1$, Si $m = 1$. Pour $n = 3$ : écrire les relations coefficients racines. Les racines $y_1,y_2$ de la dérivée vérifient $y_1 + y_2 = \frac{2}{3}(x_1 + x_2)$ et $y_1 y_2 = \frac{x_1x_2}{3}$.
Commencer par comprendre pourquoi l'inf n'est pas zéro : si $y_1$ était petite, $y_2$ seraient très grand (en $\frac{x_1x_2}{y_1}$), alors $y_1+y_2$ serait trop grand pour $x_1+x_2$.
Si on écrit les I.T. ? Ça a un espoir de marcher si le cas d'égalité final est $X (X-1)^2$.
#+END_proof #+END_proof
@ -407,30 +411,39 @@ Si $m = 1$,
Soit $I=\{P\in\mathbb{C}[X]:\forall n\in\mathbb{Z},\ P(n)\in\mathbb{Z}\}$. On pose $H_0=1$ et, pour $n\in\mathbb{N}^*$, $H_n=\frac{X(X-1)\cdots(X-n+1)}{n!}$. Pour $P\in\mathbb{C}[X]$, on pose $\Delta(P)=P(X+1)-P(X)$ et $D_n(P)=\Delta^n(P)(0)$. Soit $I=\{P\in\mathbb{C}[X]:\forall n\in\mathbb{Z},\ P(n)\in\mathbb{Z}\}$. On pose $H_0=1$ et, pour $n\in\mathbb{N}^*$, $H_n=\frac{X(X-1)\cdots(X-n+1)}{n!}$. Pour $P\in\mathbb{C}[X]$, on pose $\Delta(P)=P(X+1)-P(X)$ et $D_n(P)=\Delta^n(P)(0)$.
1. Montrer que $(H_n)_{n\geq 0}$ est une base de $\mathbb{C}[X]$. 1. Montrer que $(H_n)_{n\geq 0}$ est une base de $\mathbb{C}[X]$.
1. Montrer que, pour tout $n, H_n \in I$. 1. Montrer que, pour tout $n, H_n \in I$.
1. Montrer que, pour tout $n \in \mathbb{N}^*$, $\Delta(H_n) = H_{n-1}$. *d*) Montrer que $I \subset \mathbb{Q}[X]$. 1. Montrer que, pour tout $n \in \mathbb{N}^*$, $\Delta(H_n) = H_{n-1}$. *d*) Montrer que $I \subset \mathbb{Q}[X]$.
1. Montrer que $I = \left\{ \sum_{i=0}^n a_i H_i \; ; \; n \in \mathbb{N}, \; (a_0, \dots, a_n) \in \mathbb{Z}^n \right\}$. 1. Montrer que $I = \left\{ \sum_{i=0}^n a_i H_i \; ; \; n \in \mathbb{N}, \; (a_0, \dots, a_n) \in \mathbb{Z}^n \right\}$.
1. Soient $P_1, P_2 \in I$ tels que, pour tout $n \in \mathbb{Z}$, $P_1(n)$ soit premier avec $P_2(n)$. Montrer qu'il existe $U_1, U_2 \in I$ tels que $U_1P_1 + U_2P_2 = 1$.
1. Soient $P_1, P_2 \in I$ tels que, pour tout $n \in \mathbb{Z}$, $P_1(n)$ soit premier avec $P_2(n)$. Montrer qu'il
existe $U_1, U_2 \in I$ tels que $U_1P_1 + U_2P_2 = 1$.
#+end_exercice #+end_exercice
#+BEGIN_exercice [ENS PLSR 2025 # 23] #+BEGIN_exercice [ENS PLSR 2025 # 23]
Soit $H = \begin{pmatrix} 2 & 1 \\ 1 & 1 \end{pmatrix}$. On note $C_H = \{M \in \operatorname{GL}_2(\mathbb{Z}), \ MH = HM\}$. Soit $H = \begin{pmatrix} 2 & 1 \\ 1 & 1 \end{pmatrix}$. On note $C_H = \{M \in \operatorname{GL}_2(\mathbb{Z}), \ MH = HM\}$.
1. Montrer que $C_H$ est un sous-groupe infini de $GL_2(\mathbb{Z})$. 1. Montrer que $C_H$ est un sous-groupe infini de $GL_2(\mathbb{Z})$.
1. Montrer que $C_H = \mathbb{Z}[H] \cap \operatorname{GL}_2(\mathbb{Z})$, où $\mathbb{Z}[H] = \{xI + yH, (x,y) \in \mathbb{Z}^2\}$. 1. Montrer que $C_H = \mathbb{Z}[H] \cap \operatorname{GL}_2(\mathbb{Z})$, où $\mathbb{Z}[H] = \{xI + yH, (x,y) \in \mathbb{Z}^2\}$.
1. Montrer que $C_H$ est isomorphe à $(\mathbb{Z}/2\mathbb{Z}) \times \mathbb{Z}$ et en donner un système de générateurs. 1. Montrer que $C_H$ est isomorphe à $(\mathbb{Z}/2\mathbb{Z}) \times \mathbb{Z}$ et en donner un système de générateurs.
#+END_exercice #+END_exercice
#+BEGIN_proof
1.
2. Vérifier que le commutateur dans $M_2(\Z)$ est $\R[H]$.
3. L'élément de $\Z/2\Z$ est $-I_2$.
#+END_proof
#+begin_exercice [ENS L 2025 # 24] #+begin_exercice [ENS L 2025 # 24]
Soient $A$ et $B$ dans $\mathcal{M}_n(\mathbb{R})$ telles que AB = BA. Soit $k \in \mathbb{N}^*$. Déterminer le signe de det $(A^k + B^k)$. Soient $A$ et $B$ dans $\mathcal{M}_n(\mathbb{R})$ telles que $AB = BA$. Soit $k \in \mathbb{N}^*$. Déterminer le signe de $\det (A^k + B^k)$.
#+end_exercice #+end_exercice
#+BEGIN_proof
Pour $k = 1$ on ne peut rien dire : cf des matrices diagonales quelconques. Idem pour $k$ impair.
Pour $k = 2$, si $A$ et $B$ étaient trigonalisables, on trouverait
quelque chose de positif. Si $A, B$ sont des matrices de $O_2$, leurs
carrés sont des matrices de rotation, que l'on somme… On obtient $\begin{pmatrix}1 + \cos \theta & \sin \theta \\ -\sin \theta & 1 + \cos
\theta\end{pmatrix}$ de déterminant $2 + 2 \cos \theta\geq 0$.
Donc le résultat a l'air vrai.
#+END_proof
#+BEGIN_exercice [ENS SR 2025 # 25] #+BEGIN_exercice [ENS SR 2025 # 25]
Soient $f \in C^{\infty}(\mathbb{R}, \mathbb{R}^{+*})$ et $x_0, \ldots, x_{n-1}$ des réels > 0. On souhaite montrer que : Soient $f \in C^{\infty}(\mathbb{R}, \mathbb{R}^{+*})$ et $x_0, \ldots, x_{n-1}$ des réels > 0. On souhaite montrer que :
@ -440,14 +453,11 @@ $$\det\left(\frac{d^j}{dx^j}(f(x)^{x_i})\right)_{0\leqslant i,j< n} = f(x)^{\sum
a) Soit $(p_j)_{0 \le j < n}$ une famille de polynômes de $\mathbb{R}[X]$ telle que, pour tout $j, p_j$ est de degré $j$ et de coefficient dominant $d_j$. a) Soit $(p_j)_{0 \le j < n}$ une famille de polynômes de $\mathbb{R}[X]$ telle que, pour tout $j, p_j$ est de degré $j$ et de coefficient dominant $d_j$.
Montrer que $\det (p_j(x_i))_{0 \leq i,j < n} = d_0 \times \cdots \times d_{n-1} \prod (x_j - x_i)$. Montrer que $\det (p_j(x_i))_{0 \leq i,j < n} = d_0 \times \cdots \times d_{n-1} \prod (x_j - x_i)$.
b) Montrer que, pour tout $x \in \mathbb{R}$ et tout $j \in \mathbb{N}$, il existe $p_j \in \mathbb{R}[X]$ de degré $j$ et de coefficient dominant $f'(x)^j$ tel que : $\forall z \in \mathbb{R}, \frac{d^j}{dx^j} (f(x)^z) = f(x)^{z-j} p_j(z)$. b) Montrer que, pour tout $x \in \mathbb{R}$ et tout $j \in \mathbb{N}$, il existe $p_j \in \mathbb{R}[X]$ de degré $j$ et de coefficient dominant $f'(x)^j$ tel que : $\forall z \in \mathbb{R}, \frac{d^j}{dx^j} (f(x)^z) = f(x)^{z-j} p_j(z)$.
c) Démontrer le résultat annoncé. Que dire dans des cas particuliers? c) Démontrer le résultat annoncé. Que dire dans des cas particuliers?
1. Soit $f: x \mapsto \sum_{n=0}^{+\infty} a_n x^n$ la somme d'une série entière de rayon de convergence non nul. 1. Soit $f: x \mapsto \sum_{n=0}^{+\infty} a_n x^n$ la somme d'une série entière de rayon de convergence non nul.
Pour tous $i, j \in \mathbb{N}^*$, on note $c_{i,j}$ le coefficient en $x^j$ de $f^i$. Calculer $\det((c_{i,j})_{1 \le i,j \le n})$. Pour tous $i, j \in \mathbb{N}^*$, on note $c_{i,j}$ le coefficient en $x^j$ de $f^i$. Calculer $\det((c_{i,j})_{1 \le i,j \le n})$.
#+END_exercice #+END_exercice
@ -1158,18 +1168,18 @@ Soit $f \in \mc C^2(\R, \C)$.
On pose $\partial_P f = \sum_{k=0}^{\i} a_k f^{(k)}$. Donner une condition nécessaire et suffisante sur $P$ pour que, quelle que soit $f \in \mc C^2(\R, \C)$, $\partial_P f \xrightarrow[+\i]{} 0$ implique $f \xrightarrow[+\i]{} 0$. On pose $\partial_P f = \sum_{k=0}^{\i} a_k f^{(k)}$. Donner une condition nécessaire et suffisante sur $P$ pour que, quelle que soit $f \in \mc C^2(\R, \C)$, $\partial_P f \xrightarrow[+\i]{} 0$ implique $f \xrightarrow[+\i]{} 0$.
1. Soit $a, b, c \in \R$. Trouver une condition nécessaire et suffisante pour que 1. Soit $a, b, c \in \R$. Trouver une condition nécessaire et suffisante pour que
$$\forall (x,y,z) \in \mc C^1(\R,\C)^3, \quad \left\{ \begin{array}{l} x' + ax + by + cz \xrightarrow{+\i} 0 \\ y' + bx + cy + az \xrightarrow{+\i} 0 \\ z' + cx + ay + bz \xrightarrow{+\i} 0 \end{array} . \Longrightarrow \left\{ \begin{array}{l} x \xrightarrow{+\i} 0 \\ y \xrightarrow{+\i} 0 \\ z \xrightarrow{+\i} 0 \end{array}$.$. $$\forall (x,y,z) \in \mc C^1(\R,\C)^3, \quad \left\{ \begin{array}{l} x' + ax + by + cz \xrightarrow{+\i} 0 \\ y' + bx + cy + az \xrightarrow{+\i} 0 \\ z' + cx + ay + bz \xrightarrow{+\i} 0 \end{array} . \Longrightarrow \left\{ \begin{array}{l} x \xrightarrow{+\i} 0 \\ y \xrightarrow{+\i} 0 \\ z \xrightarrow{+\i} 0 \end{array}.$$
#+end_exercice #+end_exercice
#+begin_exercice [ENS SR 2025 # 125] #+begin_exercice [ENS SR 2025 # 125]
Soient $I$ un intervalle de $\R$ et $A:I\ra\M_2(\R)$ continue. On regarde l'équation (1): X'(t) = A(t) X(t). Soient $I$ un intervalle de $\R$ et $A:I\ra\M_2(\R)$ continue. On regarde l'équation (1): $X'(t) = A(t) X(t)$.
1. Décrire l'ensemble des solutions de (1). 1. Décrire l'ensemble des solutions de (1).
1. On suppose qu'il existe $P \in GL_2(\R)$ et $D: I \ra \M_2(\R)$ à valeurs dans l'ensemble des matrices diagonales telles que, pour tout $t \in \R$, $A(t) = P^{-1}D(t)P$. 1. On suppose qu'il existe $P \in GL_2(\R)$ et $D: I \ra \M_2(\R)$ à valeurs dans l'ensemble des matrices diagonales telles que, pour tout $t \in \R$, $A(t) = P^{-1}D(t)P$.
Trouver une condition sur $D$ pour que les solutions de (1) aient une limite quand $t \ra +\i$. Trouver une condition sur $D$ pour que les solutions de (1) aient une limite quand $t \ra +\i$.
#+end_exercice #+end_exercice
#+begin_exercice [ENS P 2025 # 126] #+begin_exercice [ENS P 2025 # 126]
Soit $n \ge 2$. Soit $A : \R^+ \ra \M_n(\R)$ continue. On considère les solutions de l'équation différentielle (): x'(t) = A(t)x(t). Soit $n \ge 2$. Soit $A : \R^+ \ra \M_n(\R)$ continue. On considère les solutions de l'équation différentielle $(): x'(t) = A(t)x(t)$.
1. On suppose qu'il existe $P \in GL_n(\R)$ et $D : \R^+ \ra \M_n(\R)$ continue et à valeurs dans l'ensemble des matrices diagonales à coefficients dans $]-\i,-1]$ telles que, pour tout $t$, $A(t) = P D(t) P^{-1}$. Les solutions de () ont-elles toutes pour limite 0 en $+\i$ ? 1. On suppose qu'il existe $P \in GL_n(\R)$ et $D : \R^+ \ra \M_n(\R)$ continue et à valeurs dans l'ensemble des matrices diagonales à coefficients dans $]-\i,-1]$ telles que, pour tout $t$, $A(t) = P D(t) P^{-1}$. Les solutions de () ont-elles toutes pour limite 0 en $+\i$ ?
1. On suppose qu'il existe $P: \R^+ \ra \mathrm{GL}_n(\R)$ continue et $D \in \M_n(\R)$ diagonale à coefficients dans $]-\i,-1]$ telles que, pour tout $t$, $A(t)=P(t)DP^{-1}(t)$. Les solutions de () ont-elles toutes pour limite 0 en $+\i$ ? 1. On suppose qu'il existe $P: \R^+ \ra \mathrm{GL}_n(\R)$ continue et $D \in \M_n(\R)$ diagonale à coefficients dans $]-\i,-1]$ telles que, pour tout $t$, $A(t)=P(t)DP^{-1}(t)$. Les solutions de () ont-elles toutes pour limite 0 en $+\i$ ?
#+end_exercice #+end_exercice
@ -1236,8 +1246,8 @@ On dit que $f$ est harmonique si $\frac{\partial^2 f}{\partial x^2} + \frac{\par
Montrer qu'il n'existe aucun triangle rectangle dont les longueurs des côtés sont dans $\N^*$ et dont l'aire est un carré parfait non nul. Montrer qu'il n'existe aucun triangle rectangle dont les longueurs des côtés sont dans $\N^*$ et dont l'aire est un carré parfait non nul.
#+end_exercice #+end_exercice
#+begin_exercice [ENS MP 2025 # 137] #+begin_exercice [ENS P 2025 # 137]
$ $ [P] Soient a, $b$, $c$, $d$ dans $\R^{+*}$. Quelle est l'aire maximale d'un quadrilatère dont les côtés successifs ont pour longueurs a, $b$, $c$, d? Soient a, $b$, $c$, $d$ dans $\R^{+*}$. Quelle est l'aire maximale d'un quadrilatère dont les côtés successifs ont pour longueurs a, $b$, $c$, d?
#+end_exercice #+end_exercice
#+begin_exercice [ENS PLSR 2025 # 138] #+begin_exercice [ENS PLSR 2025 # 138]
@ -1251,36 +1261,65 @@ brique du polygone $z_1\cdots z_n$ comme $\frac{1}{2}\sum_{k=0}^{n-1}(\op{Re}(z_
** Probabilités ** Probabilités
# ID: nil # Sans intérêt
#+BEGIN_exercice [ENS PLSR 2025 # 139] #+BEGIN_exercice [ENS PLSR 2025 # 139]
1. Calculer la variance d'une variable de Poisson. 1. Calculer la variance d'une variable de Poisson.
1. Soient $a \in \N^*$ et $p$ un nombre premier. Calculer $\mathbf{E}(X^p \text{ modulo } p)$ où $X \sim \mc{P}(a)$. 1. Soient $a \in \N^*$ et $p$ un nombre premier. Calculer $\mathbf{E}(X^p \text{ modulo } p)$ où $X \sim \mc{P}(a)$.
#+END_exercice #+END_exercice
#+BEGIN_proof
1.
2.
#+END_proof
# ID:8451
#+begin_exercice [ENS SR 2025 # 140] #+begin_exercice [ENS SR 2025 # 140]
Soient $p \in [0,1]$ et $(X_n)_{n \geq 0}$ une suite $i$.i.d. de variables aléatoires suivant la loi Soient $p \in [0,1]$ et $(X_n)_{n \geq 0}$ une suite i.i.d. de variables aléatoires suivant la loi Bernoulli de paramètre $p$. On pose $S_0=1$ et, pour $n\geq 0$, $S_{n+1}=\left\{\begin{array}{cc} 3S_n+1 & \text{ si } X_n=1\\ \frac{S_n}{2} & \text{ si } X_n=0 \end{array}\right$.
Bernoulli de paramètre $p$. On pose $S_0=1$ et, pour $n\geq 0$, $S_{n+1}=\left\{\begin{array}{cc} 3S_n+1 & \text{ si } X_n=1\\ \frac{S_n}{2} & \text{ si } X_n=0 \end{array}\right$. 1. Étudier les cas $p=0$ et $p=1$. On supposera que $0\lt p \lt 1$ dans toute la suite de l'exercice.
1. Étudier les cas p=0 et p=1. On supposera que 0 dans toute la suite de l'exercice.
1. Donner une formule de récurrence vérifiée par la suite $(\mathbf{E}(S_n))_{n\geq 0}$, et étudier son comportement quand $n\ra +\i$. 1. Donner une formule de récurrence vérifiée par la suite $(\mathbf{E}(S_n))_{n\geq 0}$, et étudier son comportement quand $n\ra +\i$.
1. Montrer que $\mathbf{P}((S_n)_{n\geq 0} \text{ est bornée}) = 0$. 1. Montrer que $\mathbf{P}((S_n)_{n\geq 0} \text{ est bornée}) = 0$.
#+end_exercice #+end_exercice
#+BEGIN_proof
#+END_proof
# ID:nil
#+begin_exercice [ENS SR 2025 # 141] #+begin_exercice [ENS SR 2025 # 141]
Soit $(X_n)_{n\geq 1}$ une suite de variables aléatoires $i$.i.d. telles que $\mathbf{E}(X_1^4)\lt +\i$. Soit $(X_n)_{n\geq 1}$ une suite de variables aléatoires i.i.d. telles que $\mathbf{E}(X_1^4)\lt +\i$.
On pose $T_n = \frac{1}{n} \sum_{i=1}^n X_i$ pour tout $n \ge 1$. Montrer que la suite $(T_n)_{n \ge 0}$ converge presque sûrement vers $\mathbf{E}(X_1)$. On pose $T_n = \frac{1}{n} \sum_{i=1}^n X_i$ pour tout $n \ge 1$. Montrer que la suite $(T_n)_{n \ge 0}$ converge presque sûrement vers $\mathbf{E}(X_1)$.
#+end_exercice #+end_exercice
# ID:8452
#+begin_exercice [ENS L 2025 # 142] #+begin_exercice [ENS L 2025 # 142]
Soit $(X_n)_{n\geq 1}$ (resp. $(Y_n)_{n\geq 1}$) une suite de variables aléatoires $i$.i.d à valeurs dans $\N$. On note $T=\inf\{n\geq 2\ ;\ X_n\notin\{X_1,\ldots,X_{n-1}\}\}$ et $S=\inf\{n\geq 2\ ;\ Y_n\notin\{Y_1,\ldots,Y_{n-1}\}\}$. On suppose que $T\sim S$. Que peut-on dire du lien entre les suites $(X_n)$ et $(Y_n)$ ? Soit $(X_n)_{n\geq 1}$ (resp. $(Y_n)_{n\geq 1}$) une suite de variables aléatoires i.i.d à valeurs dans $\N$. On note $T=\inf\{n\geq 2\ ;\ X_n\notin\{X_1,\ldots,X_{n-1}\}\}$ et $S=\inf\{n\geq 2\ ;\ Y_n\notin\{Y_1,\ldots,Y_{n-1}\}\}$. On suppose que $T\sim S$. Que peut-on dire du lien entre les suites $(X_n)$ et $(Y_n)$ ?
#+end_exercice #+end_exercice
#+BEGIN_proof
La variable $T$ est à valeurs dans $\{n\geq 2\}$. On a $\P(T = 2) = \P(X_1\neq X_2)$.
Donc $\sum \P(X = x_i)^2 = \sum \P(Y = x_i)^2$.
Ensuite, $\P(T = 3) = \P(X\not \in \{X_1, X_2\} \mid X_1= X_2) \P (X_1 = X_2)$.
Avec une FPT, la partie de gauche est $\sum (1-p_i) p_i^2$. On en déduit que $\sum p_i^3 = \sum q_i^3$, etc.
Conclusion : les lois sont permutations l'une de l'autre.
#+END_proof
#+begin_exercice [ENS P 2025 # 143] #+begin_exercice [ENS P 2025 # 143]
Soit $\mc{P}$ l'ensemble des nombres premiers et $\beta \gt 1$. Soit $(Y_p)_{p \in \mc{P}}$ une suite de variables aléatoires indépendantes à valeurs dans $\N$ vérifiant $\mathbf{P}(Y_p = k) = (1 p^{-\beta})p^{-k\beta}$ pour $k \in \N$ et $p \in \mc{P}$. On pose $Z = \sum_{n \in \mc{P}} Y_p \ln p$ et $X = \exp Z$. Soit $\mc{P}$ l'ensemble des nombres premiers et $\beta \gt 1$. Soit $(Y_p)_{p \in \mc{P}}$ une suite de variables aléatoires indépendantes à valeurs dans $\N$ vérifiant $\mathbf{P}(Y_p = k) = (1 - p^{-\beta})p^{-k\beta}$ pour $k \in \N$ et $p \in \mc{P}$. On pose $Z = \sum_{n \in \mc{P}} Y_p \ln p$ et $X = \exp Z$.
1. Donner la loi de $X$. 1. Donner la loi de $X$.
1. En déduire que $\sum_{i=1}^{+\i} \frac{\mu(n)}{n^{\beta}} = \frac{1}{\zeta(\beta)}$ où $\mu$ est la fonction de Möbius. 1. En déduire que $\sum_{i=1}^{+\i} \frac{\mu(n)}{n^{\beta}} = \frac{1}{\zeta(\beta)}$ où $\mu$ est la fonction de Möbius.
#+end_exercice #+end_exercice
#+BEGIN_proof
1. $X = \prod p^{Y_p}$. Pour $n\in\N^*$, $\P(X = n) = \prod_{p^{\a}\mid n} (1-p^{-\b}) p^{-\a\b} = \prod_{p} (1-p^{-\b}) \frac{1}{n^{\b}}$.
2.
#+END_proof
#+begin_exercice [ENS L 2025 # 144] #+begin_exercice [ENS L 2025 # 144]
Montrer qu'il existe $C$ \gt 0 tel que pour tout $n \ge 1$ et tout $(a_{i,j})_{1 \le i,j \le n} \in \{\pm 1\}^{n^2}$, il existe $(x_i)_{1 \le i \le n}$ et $(y_i)_{1 \le i \le n}$ dans $\{\pm 1\}^n$ tels que $\sum_{1 \le i \le n} a_{i,j} x_i y_j \ge C n^{3/2}$. Montrer qu'il existe $C \gt0$ tel que pour tout $n \ge 1$ et tout $(a_{i,j})_{1 \le i,j \le n} \in \{\pm 1\}^{n^2}$, il existe $(x_i)_{1 \le i \le n}$ et $(y_i)_{1 \le i \le n}$ dans $\{\pm 1\}^n$ tels que $\sum_{1 \le i \le n} a_{i,j} x_i y_j \ge C n^{3/2}$.
#+end_exercice #+end_exercice
#+begin_exercice [ENS MP 2025 # 145] #+begin_exercice [ENS MP 2025 # 145]
@ -1292,20 +1331,20 @@ Soit $n \in \N$ avec $n \ge 2$. Soit $E_n = \{e_1, \dots, e_n\}$ un ensemble de
#+end_exercice #+end_exercice
#+BEGIN_exercice [ENS L 2025 # 147] #+BEGIN_exercice [ENS L 2025 # 147]
Soient $d \in \N^*$ et $(e_1, \ldots, e_d)$ la base canonique de $\Z^d$. Soit $(X_n)_{n \geq 0}$ une suite de variables aléatoires indépendantes telles que $\mathbf{P}(X_n = e_i) = \mathbf{P}(X_n = -e_i) = \frac{1}{2d}$ Soient $d \in \N^*$ et $(e_1, \ldots, e_d)$ la base canonique de $\Z^d$. Soit $(X_n)_{n \geq 0}$ une suite de variables aléatoires indépendantes telles que $\mathbf{P}(X_n = e_i) = \mathbf{P}(X_n = -e_i) = \frac{1}{2d}$ pour $1 \leq i \leq d$. On pose $S_n = \sum_{i=1}^n X_k$ et $S_0 = 0$.
pour $1 \leq i \leq d$. On pose $S_n = \sum_{i=1}^n X_k$ et $S_0 = 0$. Soit $T = \inf\{n \gt 0, S_n = 0\}$ et $p_d = \mathbf{P}(T \lt +\i)$. On admet que $p_d \lt 1$ pour $d \geq 3$. Montrer que $p_d \ra 0$ lorsque $d \ra +\i$. Soit $T = \inf\{n \gt 0, S_n = 0\}$ et $p_d = \mathbf{P}(T \lt +\i)$. On admet que $p_d \lt 1$ pour $d \geq 3$. Montrer que $p_d \ra 0$ lorsque $d \ra +\i$.
#+END_exercice #+END_exercice
#+begin_exercice [ENS P 2025 # 148] #+begin_exercice [ENS P 2025 # 148]
Soient $p \in ]0, 1/2[$ et $(X_n)_{n \ge 1}$ une suite $i$.i.d. de variables aléatoires telle que $\mathbf{P}(X_n=1)=1-\mathbf{P}(X_n=-1)=p. \text{ Pour } n\in\N^*, \text{ on note } S_n=X_1+\cdots+X_n. \text{ Montrer } 1\text{'existence de } c,C_1,C_2\gt 0 \text{ tels que } \forall u\geq 0,\ C_1e^{-cu}\leq \mathbf{P}\left(\sup_{n\geq 1}S_n\geq u\right)\leq C_2e^{-cu}$. Soient $p \in ]0, 1/2[$ et $(X_n)_{n \ge 1}$ une suite i.i.d. de variables aléatoires telle que $\mathbf{P}(X_n=1)=1-\mathbf{P}(X_n=-1)=p. \text{ Pour } n\in\N^*, \text{ on note } S_n=X_1+\cdots+X_n. \text{ Montrer } 1\text{'existence de } c,C_1,C_2\gt 0 \text{ tels que } \forall u\geq 0,\ C_1e^{-cu}\leq \mathbf{P}\left(\sup_{n\geq 1}S_n\geq u\right)\leq C_2e^{-cu}$.
#+end_exercice #+end_exercice
#+begin_exercice [ENS PLSR 2025 # 149] #+begin_exercice [ENS PLSR 2025 # 149]
1. Soit $X$ une variable aléatoire réelle et $s$ \gt 0 tel que $\mathbf{E}(e^{sX})$ soit finie. Démontrer que $\forall a \gt 0$, $\mathbf{P}(X \ge a) \le e^{-sa} \mathbf{E}(e^{sX})$. 1. Soit $X$ une variable aléatoire réelle et $s$ \gt 0 tel que $\mathbf{E}(e^{sX})$ soit finie. Démontrer que $\forall a \gt 0$, $\mathbf{P}(X \ge a) \le e^{-sa} \mathbf{E}(e^{sX})$.
1. Soit $(X_i)_{i \ge 1}$ une suite de variable aléatoires $i$.i.d. à valeurs dans [0, 1]. 1. Soit $(X_i)_{i \ge 1}$ une suite de variable aléatoires i.i.d. à valeurs dans [0, 1].
On pose $S_n = \sum_{i=1}^n X_i$. Démontrer que $\forall t \gt 0$, $\mathbf{P}(|S_n - \mathbf{E}(S_n)| \ge t) \le 2e^{-t^2/(2n)}$. On pose $S_n = \sum_{i=1}^n X_i$. Démontrer que $\forall t \gt 0$, $\mathbf{P}(|S_n - \mathbf{E}(S_n)| \ge t) \le 2e^{-t^2/(2n)}$.
#+end_exercice #+end_exercice
@ -1335,7 +1374,11 @@ Montrer que $H(p,q) \ge 0$. Que dire si H(p,q) = 0?
#+end_exercice #+end_exercice
#+begin_exercice [ENS L 2025 # 152] #+begin_exercice [ENS L 2025 # 152]
On considère $r_0 = 0$ et $(r_i)_{i \in \N^*} \in [0, 1]^{\N^*}$. Pour $(i, j) \in \N^* \times \N$, on pose $p_{i,j} = r_i$ si $j = i + 1, 1 - r_i$ si $j$ = $i$ - 1 et 0 sinon.On admet l'existence d'une famille de variables aléatoires $(X_k^i)_{(i,k)\in\N^*\times\N}$ telles que On considère $r_0 = 0$ et $(r_i)_{i \in \N^*} \in [0, 1]^{\N^*}$. Pour
$(i, j) \in \N^* \times \N$, on pose $p_{i,j} = r_i$ si $j = i + 1,
1 - r_i$ si $j = i - 1$ et $0$ sinon.On admet l'existence d'une
famille de variables aléatoires $(X_k^i)_{(i,k)\in\N^*\times\N}$
telles que
+ $X_0^{i_0} = i_0$ $p$.s. pour tout $i_0 \in \N^*$, + $X_0^{i_0} = i_0$ $p$.s. pour tout $i_0 \in \N^*$,
+ $\mathbf{P}\left(\bigcap_{i=1}^n (X_k^{i_k} = i_{k-1})\right) = \prod_{i=1}^n p_{i_{k-1}, i_k} \text{ pour tout } (i_0, \dots, i_k) \in \N^{*k+1}$. + $\mathbf{P}\left(\bigcap_{i=1}^n (X_k^{i_k} = i_{k-1})\right) = \prod_{i=1}^n p_{i_{k-1}, i_k} \text{ pour tout } (i_0, \dots, i_k) \in \N^{*k+1}$.
@ -1366,7 +1409,7 @@ Soit $(X_n)_{n\geq 0}$ une suite de variables aléatoires indépendantes à vale
#+end_exercice #+end_exercice
#+begin_exercice [ENS P 2025 # 156] #+begin_exercice [ENS P 2025 # 156]
Soit $(p_n)_{n\geq 1}$ une suite d'éléments de [0,1]. Pour $n\in\N^*$, on note $G_n$ le graphe aléatoire $G_{n,p_n}$ d'Erdös-Renyi, c'est-à-dire un graphe aléatoire de sommets [1,n] et une famille $(X_{\{i,j\}})_{\{i,j\}\in\mc{P}_2([1,n])}$ de variables de Bernoulli $i$.i.d. de paramètre $p_n$, avec $X_{\{i,j\}}=$ 1 si et seulement s'il existe une arête reliant $i$ et $j$. On note $I_n$ le nombre de sommets isolés $de G_n$. Soit $(p_n)_{n\geq 1}$ une suite d'éléments de [0,1]. Pour $n\in\N^*$, on note $G_n$ le graphe aléatoire $G_{n,p_n}$ d'Erdös-Renyi, c'est-à-dire un graphe aléatoire de sommets [1,n] et une famille $(X_{\{i,j\}})_{\{i,j\}\in\mc{P}_2([1,n])}$ de variables de Bernoulli i.i.d. de paramètre $p_n$, avec $X_{\{i,j\}}=$ 1 si et seulement s'il existe une arête reliant $i$ et $j$. On note $I_n$ le nombre de sommets isolés $de G_n$.
1. Soit $\eps \in ]0,1[$. On suppose que, pour tout $n \in \N^*$, $p_n \geq (1+\eps)\frac{\ln(n)}{n}$. Montrer que $\mathbf{P}(I_n \geq 1) \xrightarrow[n \ra +\i]{} 0$. 1. Soit $\eps \in ]0,1[$. On suppose que, pour tout $n \in \N^*$, $p_n \geq (1+\eps)\frac{\ln(n)}{n}$. Montrer que $\mathbf{P}(I_n \geq 1) \xrightarrow[n \ra +\i]{} 0$.
1. Soit $\eps \in ]0,1[$. On suppose que, pour tout $n \in \N^*$, $p_n \leq (1-\eps)\frac{\ln(n)}{n}$. Montrer que $\mathbf{P}(I_n \geq 1) \underset{n \ra +\i}{\longrightarrow} 1$. 1. Soit $\eps \in ]0,1[$. On suppose que, pour tout $n \in \N^*$, $p_n \leq (1-\eps)\frac{\ln(n)}{n}$. Montrer que $\mathbf{P}(I_n \geq 1) \underset{n \ra +\i}{\longrightarrow} 1$.
#+end_exercice #+end_exercice
@ -1379,7 +1422,7 @@ qu'une $p$-liste $(z_1,\ldots,z_p)$ d'éléments de $\mathbb{U}_n$ telle que $\l
#+begin_exercice [ENS PLSR 2025 # 158] #+begin_exercice [ENS PLSR 2025 # 158]
Soit $p \in [0,1/2]$. On fixe une suite $(X_n)_{n \ge 1}$ de variables aléatoires $i$.i.d. à valeurs dans $\{-1,0,1\}$ et telles que $P(X_1 = 1) = P(X_1 = -1) = p$ et $P(X_1 = 0) = p$ Soit $p \in [0,1/2]$. On fixe une suite $(X_n)_{n \ge 1}$ de variables aléatoires i.i.d. à valeurs dans $\{-1,0,1\}$ et telles que $P(X_1 = 1) = P(X_1 = -1) = p$ et $P(X_1 = 0) = p$
valeurs dans valeurs dans
$$\{-1,0,1\}$$ $$\{-1,0,1\}$$
@ -1398,11 +1441,17 @@ Soit $n \ge 3$. Une alpiniste dispose de $n$ lieux possibles pour planter sa ten
#+end_exercice #+end_exercice
#+begin_exercice [ENS L 2025 # 160] #+begin_exercice [ENS L 2025 # 160]
Soit $(X_n)_{n\geq 1}$ une suite $i$.i.d. de variables aléatoires réelles discrètes. Pour $t\in\R$ et $n \in \N^*$, on considère la variable aléatoire $f_n(t) = \frac{1}{n} \left| \{k \in [1, n], X_k \leq t\} \right|$. Montrer qu'il existe une fonction $f\colon \R \ra \R$ telle que $\mathbf{P}\left(\sup_{t \in \R} |f_n(t) - f(t)| \gt \eps\right) \underset{n \ra +\i}{\longrightarrow} 0$ pour tout réel $\eps \gt 0$. Soit $(X_n)_{n\geq 1}$ une suite i.i.d. de variables aléatoires réelles discrètes. Pour $t\in\R$ et $n \in \N^*$, on considère la variable aléatoire $f_n(t) = \frac{1}{n} \left| \{k \in [1, n], X_k \leq t\} \right|$. Montrer qu'il existe une fonction $f\colon \R \ra \R$ telle que $\mathbf{P}\left(\sup_{t \in \R} |f_n(t) - f(t)| \gt \eps\right) \underset{n \ra +\i}{\longrightarrow} 0$ pour tout réel $\eps \gt 0$.
#+end_exercice #+end_exercice
#+begin_exercice [ENS L 2025 # 161] #+begin_exercice [ENS L 2025 # 161]
Pour deux variables aléatoires réelles bornées $X$ et Y, sur des espaces probabilisés a *priori* distincts, on note $X \leq_c Y$ pour signifier que $\mathbf{E}(f(X)) \leq \mathbf{E}(f(Y))$ pour toute fonction convexe $f\colon \R \ra \R$. On se donne, sur un espace probabilisé, deux suites $(M, X_1, X_2, \dots)$ et $(N, Y_1, Y_2, \dots)$ de variables aléatoires indépendantes bornées vérifiant les conditions suivantes: Pour deux variables aléatoires réelles bornées $X$ et $Y$, sur des
espaces probabilisés a *priori* distincts, on note $X \leq_c Y$ pour
signifier que $\mathbf{E}(f(X)) \leq \mathbf{E}(f(Y))$ pour toute
fonction convexe $f\colon \R \ra \R$. On se donne, sur un espace
probabilisé, deux suites $(M, X_1, X_2, \dots)$ et $(N, Y_1, Y_2,
\dots)$ de variables aléatoires indépendantes bornées vérifiant les
conditions suivantes:
+ les $X_n$, où $n \in \N^*$, sont identiquement distribuées et positives; + les $X_n$, où $n \in \N^*$, sont identiquement distribuées et positives;
+ les $Y_n$, où $n \in \N^*$, sont identiquement distribuées et positives; + les $Y_n$, où $n \in \N^*$, sont identiquement distribuées et positives;
+ $M$ et $N$ sont à valeurs dans $\N$ : + $M$ et $N$ sont à valeurs dans $\N$ :
@ -1694,7 +1743,7 @@ On suppose $n$ pair et on note $A$ l'événement « les $\frac{n}{2}$ premiers t
$\forall x \in [1/n, 1], f_n(x) = x^{-1/4} \text{ et } f_n \text{ est affine sur } [1/2n, 1/n]$. Comparer $||f_n||_2$ et $||f_n||_4$. Qu'en déduit-on? $\forall x \in [1/n, 1], f_n(x) = x^{-1/4} \text{ et } f_n \text{ est affine sur } [1/2n, 1/n]$. Comparer $||f_n||_2$ et $||f_n||_4$. Qu'en déduit-on?
1. Soit $(X_n)_{n\geq 1}$ une suite $i$.i.d. de variables aléatoires suivant la loi uniforme sur $\{-1,1\}$. 1. Soit $(X_n)_{n\geq 1}$ une suite i.i.d. de variables aléatoires suivant la loi uniforme sur $\{-1,1\}$.
Pour Pour
$$a=(a_n)_{n\geq 1}\in\R^{\N^*},\, n\geq 1$$ $$a=(a_n)_{n\geq 1}\in\R^{\N^*},\, n\geq 1$$
@ -1779,7 +1828,7 @@ Soit $I$ un intervalle de $\R$.
#+begin_exercice [ENS PSI 2025 # 191] #+begin_exercice [ENS PSI 2025 # 191]
Soient $n \ge 2$ et $p \in \{1, \dots, n\}$. Soit $A \in \M_{n,p}(\R)$ telle que $A^T A$ est inversible. On pose $P = A(A^T A)^{-1}A^T$. Soient $n \ge 2$ et $p \in \{1, \dots, n\}$. Soit $A \in \M_{n,p}(\R)$ telle que $A^T A$ est inversible. On pose $P = A(A^T A)^{-1}A^T$.
On considère des variables aléatoires $i$.i.d. $(z_k)_{1 \leq k \leq n}$ d'espérance nulle et ayant un moment d'ordre 4. On pose $\sigma = \sqrt{\mathbf{V}(z_1)}$ et $Z = (z_1 \dots z_n)^T$. On considère des variables aléatoires i.i.d. $(z_k)_{1 \leq k \leq n}$ d'espérance nulle et ayant un moment d'ordre 4. On pose $\sigma = \sqrt{\mathbf{V}(z_1)}$ et $Z = (z_1 \dots z_n)^T$.
On considère une matrice colonne $X_0 \in \M_{p,1}(\R)$. On pose $Y = AX_0 + Z$ et $X = (A^TA)^{-1}A^TY$. On pose enfin $T = ||A(X - X_0)||^2$, où || || est la norme euclidienne usuelle sur $\M_{p,1}(\R)$. On considère une matrice colonne $X_0 \in \M_{p,1}(\R)$. On pose $Y = AX_0 + Z$ et $X = (A^TA)^{-1}A^TY$. On pose enfin $T = ||A(X - X_0)||^2$, où || || est la norme euclidienne usuelle sur $\M_{p,1}(\R)$.
@ -1795,9 +1844,9 @@ Exprimer $\mathbf{E}(T_1)$, $\mathbf{E}(T_2)$ et $\mathbf{E}(T_1T_2)$ en fonctio
#+end_exercice #+end_exercice
#+begin_exercice [ENS PSI 2025 # 192] #+begin_exercice [ENS PSI 2025 # 192]
Soit $Y$ une variable aléatoire. On dit que $Y$ est $k$-divisible $(k \in \N^*)$ s'il existe un vecteur aléatoire $(X_1, \ldots, X_k)$ où les $X_i$ sont $i$.i.d. tel que $Y \sim (X_1 + \cdots + X_n)$. On dit que $Y$ est infiniment divisible si elle est $k$-divisible pour tout $k \in \N^*$. Soit $Y$ une variable aléatoire. On dit que $Y$ est $k$-divisible $(k \in \N^*)$ s'il existe un vecteur aléatoire $(X_1, \ldots, X_k)$ où les $X_i$ sont i.i.d. tel que $Y \sim (X_1 + \cdots + X_n)$. On dit que $Y$ est infiniment divisible si elle est $k$-divisible pour tout $k \in \N^*$.
1. Soient $X$ et $Y$ deux variables aléatoires indépendante suivant les lois de Poisson de paramètres respectifs $\lambda$ et $\nu$. Donner la loi de X+Y. En déduire que si $Y\sim \mc{P}(\lambda)$ alors $Y$ est infiniment divisible. 1. Soient $X$ et $Y$ deux variables aléatoires indépendante suivant les lois de Poisson de paramètres respectifs $\lambda$ et $\nu$. Donner la loi de X+Y. En déduire que si $Y\sim \mc{P}(\lambda)$ alors $Y$ est infiniment divisible.
1. Soit $Y$ une variable aléatoire. On suppose qu'il existe A\gt 0 tel que $\mathbf{P}(Y\in[-A,A])=1$ et que $Y$ est $k$-divisible pour un certain $k\in\N^*$. On a donc $Y\sim(X_1+\cdots+X_k)$ où les $X_i$ sont $i$.i.d. 1. Soit $Y$ une variable aléatoire. On suppose qu'il existe A\gt 0 tel que $\mathbf{P}(Y\in[-A,A])=1$ et que $Y$ est $k$-divisible pour un certain $k\in\N^*$. On a donc $Y\sim(X_1+\cdots+X_k)$ où les $X_i$ sont i.i.d.
- Montrer que, pour tout $i$, $P(X_i \in [-A/k, A/k]) = 1$. - Montrer que, pour tout $i$, $P(X_i \in [-A/k, A/k]) = 1$.
- Montrer que, pour tout $i \in [1, k]$, $\mathbf{V}(X_i) \leq \left(\frac{A}{k}\right)^2$. En déduire une majoration de $\mathbf{V}(Y)$. - Montrer que, pour tout $i \in [1, k]$, $\mathbf{V}(X_i) \leq \left(\frac{A}{k}\right)^2$. En déduire une majoration de $\mathbf{V}(Y)$.
- Que peut-on dire si la variable aléatoire $Y$ vérifie $\mathbf{P}(Y \in [-A, A]) = 1$ et qu'elle est infiniment divisible? - Que peut-on dire si la variable aléatoire $Y$ vérifie $\mathbf{P}(Y \in [-A, A]) = 1$ et qu'elle est infiniment divisible?
@ -1819,7 +1868,7 @@ $$N=\begin{pmatrix}2&0&0&X_1\\0&1&X_5&X_2\\0&X_5&-1&X_3\\X_1&X_2&X_3&X_4\end{pma
#+end_exercice #+end_exercice
#+begin_exercice [ENS PSI 2025 # 194] #+begin_exercice [ENS PSI 2025 # 194]
Soit $(X_n)_{n\geq 1}$ une suite $i$.i.d. de variables aléatoires suivant la loi uniforme sur $\{-1,1\}$. Soit $(X_n)_{n\geq 1}$ une suite i.i.d. de variables aléatoires suivant la loi uniforme sur $\{-1,1\}$.
Pour Pour
$$n \in \N^*$$ $$n \in \N^*$$
@ -2211,7 +2260,7 @@ Soient $n$ et $d$ dans $\N^*$. On note $[-n,n]^d$ l'ensemble des vecteurs de $\R
#+end_exercice #+end_exercice
#+begin_exercice [ENS PC 2025 # 254] #+begin_exercice [ENS PC 2025 # 254]
Soient $d \in \N^*$ et $(X_1, \ldots, X_n)$ une suite de variables aléatoires $i$.i.d. à valeurs dans [1,d]. On note $p_k = \mathbf{P}(X_1 = k)$. Soit $N_k$ la variable aléatoire égale au nombre de fois que la valeur $k$ est obtenue. Donner la matrice $(Cov(N_i, N_j))_{1 \le i,j \le n}$ et préciser son rang. Soient $d \in \N^*$ et $(X_1, \ldots, X_n)$ une suite de variables aléatoires i.i.d. à valeurs dans [1,d]. On note $p_k = \mathbf{P}(X_1 = k)$. Soit $N_k$ la variable aléatoire égale au nombre de fois que la valeur $k$ est obtenue. Donner la matrice $(Cov(N_i, N_j))_{1 \le i,j \le n}$ et préciser son rang.
#+end_exercice #+end_exercice
#+begin_exercice [ENS PC 2025 # 255] #+begin_exercice [ENS PC 2025 # 255]
@ -2219,7 +2268,7 @@ Soient $d \in \N^*$ et $(X_1, \ldots, X_n)$ une suite de variables aléatoires $
Montrer que, pour tout $\gamma \in \R$, $\mathbf{E}\left(e^{\gamma X}\right) \leq e^{\gamma^2/2}$. Montrer que, pour tout $\gamma \in \R$, $\mathbf{E}\left(e^{\gamma X}\right) \leq e^{\gamma^2/2}$.
Soit $(X_n)_{n\geq 1}$ une suite $i$.i.d. de variables aléatoires suivant la loi uniforme sur $\{-1,1\}$. Soient $(c_n)_{n\geq 1}\in\R^{\N^*}$. Pour $N\in\N^*$, on pose $Y_N=c_1X_1+\cdots+c_NX_N$. Soit $(X_n)_{n\geq 1}$ une suite i.i.d. de variables aléatoires suivant la loi uniforme sur $\{-1,1\}$. Soient $(c_n)_{n\geq 1}\in\R^{\N^*}$. Pour $N\in\N^*$, on pose $Y_N=c_1X_1+\cdots+c_NX_N$.
1. Montrer que, pour tout $t$ \gt 0, $\mathbf{E}(e^{tY_N}) \leq e^{t^2(c_1^2 + \dots + c_N^2)/2}$. 1. Montrer que, pour tout $t$ \gt 0, $\mathbf{E}(e^{tY_N}) \leq e^{t^2(c_1^2 + \dots + c_N^2)/2}$.
$\begin{array}{l} \textbf{\textit{c})} \ \ \text{Soit} \ \lambda \gt 0. \ \text{Montrer que} \ \mathbf{P}(|Y_N| \gt \lambda) \leq 2e^{-\frac{\lambda^2}{2(c_1^2+\cdots+c_N^2)}}. \\ \textbf{\textit{d})} \ \ \text{Montrer que} \ N^{10} \ \mathbf{P}(|X_1+\cdots+X_N| \gt N^{3/4}) \underset{N \ra +\i}{\longrightarrow} 0. \end{array}$ $\begin{array}{l} \textbf{\textit{c})} \ \ \text{Soit} \ \lambda \gt 0. \ \text{Montrer que} \ \mathbf{P}(|Y_N| \gt \lambda) \leq 2e^{-\frac{\lambda^2}{2(c_1^2+\cdots+c_N^2)}}. \\ \textbf{\textit{d})} \ \ \text{Montrer que} \ N^{10} \ \mathbf{P}(|X_1+\cdots+X_N| \gt N^{3/4}) \underset{N \ra +\i}{\longrightarrow} 0. \end{array}$
@ -2932,12 +2981,11 @@ Soit (u, v) une base de $\R^2$. Donner une condition nécessaire et suffisante s
** Probabilités ** Probabilités
# ID:8450
#+begin_exercice [X MP 2025 # 347] #+begin_exercice [X MP 2025 # 347]
Un tiroir contient 2n chaussettes, constituant $n$ paires. On tire successivement et aléatoirement les chaussettes du tiroir les unes après les autres jusqu'à avoir tiré une paire. Quelle est l'espérance du nombre total de chaussettes tirées? *Ind.* Pour simplifier le résultat, Un tiroir contient 2n chaussettes, constituant $n$ paires. On tire successivement et aléatoirement les chaussettes du tiroir les unes après les autres jusqu'à avoir tiré une paire. Quelle est l'espérance du nombre total de chaussettes tirées?
on pourra utiliser un raisonnement probabiliste pour établir que Indication : Pour simplifier le résultat, on pourra utiliser un raisonnement probabiliste pour établir que $\quad\displaystyle\sum_{k=n}^{2n} \binom{k}{n} 2^{-k} = 1$.
$$\sum_{k=n}^{2n} \binom{k}{n} 2^{-k} = 1$$
.
#+end_exercice #+end_exercice
#+begin_exercice [X MP 2025 # 348] #+begin_exercice [X MP 2025 # 348]
@ -2970,7 +3018,7 @@ Calculer $f_n$ où $f_n: x \mapsto \sum_{k=1}^n C_k x^k$.
#+end_exercice #+end_exercice
#+begin_exercice [X MP 2025 # 351] #+begin_exercice [X MP 2025 # 351]
Soient $p \in ]0,1[$ et t\gt 0. Soient $(X_n)_{n\in\N}$ une suite de variables aléatoires $i$.i.d. vérifiant $\mathbf{P}(X_n=1)=p$ et $\mathbf{P}(X_n=-1)=1-p$ et $N\sim\mc{P}(t)$ indépendante des $X_n$. On pose : Soient $p \in ]0,1[$ et t\gt 0. Soient $(X_n)_{n\in\N}$ une suite de variables aléatoires i.i.d. vérifiant $\mathbf{P}(X_n=1)=p$ et $\mathbf{P}(X_n=-1)=1-p$ et $N\sim\mc{P}(t)$ indépendante des $X_n$. On pose :
$$S_n = \sum_{i=0}^n X_i$$. $$S_n = \sum_{i=0}^n X_i$$.
@ -2988,7 +3036,7 @@ Soient $p \in [0, 1[, m \ge 2 \text{ et } \xi = e^{2i\pi/m}]$.
$$\forall a,b \in \C, \quad \sum_{k \in \db{0,n }} \binom{n}{k} a^k b^{n-k} = \frac{1}{m} \sum_{j=0}^{m-1} (b + \xi^j a)^n$$. $$\forall a,b \in \C, \quad \sum_{k \in \db{0,n }} \binom{n}{k} a^k b^{n-k} = \frac{1}{m} \sum_{j=0}^{m-1} (b + \xi^j a)^n$$.
1. Soit $(X_i)_{i\in\N^*}$ une suite de variables aléatoires $i$.i.d. suivant la loi de Bernoulli de paramètre $p$. On pose : $A_n=(m\mid X_1+\cdots+X_n)$ et $u_n=\mathbf{P}(A_n)$. Montrer que la suite $(u_n)$ est convergente et déterminer sa limite. 1. Soit $(X_i)_{i\in\N^*}$ une suite de variables aléatoires i.i.d. suivant la loi de Bernoulli de paramètre $p$. On pose : $A_n=(m\mid X_1+\cdots+X_n)$ et $u_n=\mathbf{P}(A_n)$. Montrer que la suite $(u_n)$ est convergente et déterminer sa limite.
1. Montrer que : $\forall n \in \N^*, \left| u_n \frac{1}{m} \right| \leq e^{-8pqn/m^2}$ où $q$ = 1 $p$. 1. Montrer que : $\forall n \in \N^*, \left| u_n \frac{1}{m} \right| \leq e^{-8pqn/m^2}$ où $q$ = 1 $p$.
#+end_exercice #+end_exercice
@ -3027,12 +3075,12 @@ On cherche à prouver l'existence d'un réel $C$ \gt 0 tel que, pour toutes var
#+begin_exercice [X MP 2025 # 357] #+begin_exercice [X MP 2025 # 357]
1. Soient $n \in \N^*$ et $p \in ]0,1[$. Existe-t-il deux variables aléatoires indépendantes $Y_1$ et $Y_2$ de même loi telles que $Y_1 + Y_2 \sim \mc{B}(n,p)$ ? 1. Soient $n \in \N^*$ et $p \in ]0,1[$. Existe-t-il deux variables aléatoires indépendantes $Y_1$ et $Y_2$ de même loi telles que $Y_1 + Y_2 \sim \mc{B}(n,p)$ ?
1. On dit qu'une variable aléatoire $Z$ est infiniment divisible si, pour tout $k \in \N^*$, il existe des variables aléatoires $i$.i.d. $Y_1, \ldots, Y_k$ telles que $Y_1 + \cdots + Y_k \sim Z$, avec a priori $(Y_1, \ldots, Y_k)$ défini sur un espace probabilisé différent de celui de $Z$. 1. On dit qu'une variable aléatoire $Z$ est infiniment divisible si, pour tout $k \in \N^*$, il existe des variables aléatoires i.i.d. $Y_1, \ldots, Y_k$ telles que $Y_1 + \cdots + Y_k \sim Z$, avec a priori $(Y_1, \ldots, Y_k)$ défini sur un espace probabilisé différent de celui de $Z$.
Donner un exemple d'une telle variable aléatoire. Donner un exemple d'une telle variable aléatoire.
1. Que dire d'une variable aléatoire $Z$ infiniment divisible de support inclus dans [0,1]? 1. Que dire d'une variable aléatoire $Z$ infiniment divisible de support inclus dans [0,1]?
1. Soient $(X_i)_{i\in\N}$ une suite de variables aléatoires $i$.i.d. et $N\sim\mc{P}(\lambda)$ indépendante des $X_i$ (avec $\lambda\gt 0$). Montrer que $Z=X_1+\cdots+X_N$ est une variable aléatoire infiniment divisible. 1. Soient $(X_i)_{i\in\N}$ une suite de variables aléatoires i.i.d. et $N\sim\mc{P}(\lambda)$ indépendante des $X_i$ (avec $\lambda\gt 0$). Montrer que $Z=X_1+\cdots+X_N$ est une variable aléatoire infiniment divisible.
#+end_exercice #+end_exercice
#+begin_exercice [X MP 2025 # 358] #+begin_exercice [X MP 2025 # 358]
@ -3059,7 +3107,7 @@ Montrer qu'il existe une unique fonction $f$ qui respecte ces conditions, qu'ell
#+begin_exercice [X MP 2025 # 360] #+begin_exercice [X MP 2025 # 360]
Soient $X$ une variable aléatoire à support fini à valeurs dans $\Z^2$ et telle que $-X \sim$ Soient $X$ une variable aléatoire à support fini à valeurs dans $\Z^2$ et telle que $-X \sim$
$X, (X_k)_{k \geq 1}$ une suite $i$.i.d. de variables aléatoires suivant la loi de $X$. Pour $n \in \N^*$, on pose $S_n = X_1 + \cdots + X_n$. $X, (X_k)_{k \geq 1}$ une suite i.i.d. de variables aléatoires suivant la loi de $X$. Pour $n \in \N^*$, on pose $S_n = X_1 + \cdots + X_n$.
1. Montrer que, si $n \in \N^*$, $\mathbf{E}(\|S_n\|^2) = n \, \mathbf{E}(\|X\|^2)$ et $\mathbf{P}(S_{2n} = 0) = \sum_{x \in \Z^2} \mathbf{P}(S_n = x)^2$. 1. Montrer que, si $n \in \N^*$, $\mathbf{E}(\|S_n\|^2) = n \, \mathbf{E}(\|X\|^2)$ et $\mathbf{P}(S_{2n} = 0) = \sum_{x \in \Z^2} \mathbf{P}(S_n = x)^2$.
1. Montrer qu'il existe $c \in \R^{+*}$ tel que $\forall n \in \N^*, \mathbf{P}(S_{2n} = 0) \geq \frac{c}{n}$. 1. Montrer qu'il existe $c \in \R^{+*}$ tel que $\forall n \in \N^*, \mathbf{P}(S_{2n} = 0) \geq \frac{c}{n}$.
1. Démontrer que $P(\exists n \ge 1, S_n = 0) = 1$. 1. Démontrer que $P(\exists n \ge 1, S_n = 0) = 1$.
@ -3205,7 +3253,7 @@ On effectue $n \leq N$ tirages sans remise dans un sac de $N$ jetons numérotés
#+end_exercice #+end_exercice
#+begin_exercice [X PSI 2025 # 384] #+begin_exercice [X PSI 2025 # 384]
On pose $(X_k)$ une suite $i$.i.d. de variables aléatoires suivant la loi de Bernoulli de para- On pose $(X_k)$ une suite i.i.d. de variables aléatoires suivant la loi de Bernoulli de para-
mètre $p \in [0,1]$. Pour $n \in \N$, on pose $Y_n = \sum_{k=1}^n \frac{X_k}{k+n}$ mètre $p \in [0,1]$. Pour $n \in \N$, on pose $Y_n = \sum_{k=1}^n \frac{X_k}{k+n}$
1. Calculer l'espérance de $Y_n$ 1. Calculer l'espérance de $Y_n$
1. Déterminer la limite de $(\mathbf{E}(Y_n))$ 1. Déterminer la limite de $(\mathbf{E}(Y_n))$
@ -3757,13 +3805,13 @@ Une suite $(Y_n)$ de variables aléatoires à valeurs dans $\N$ est dite *transi
#+end_exercice #+end_exercice
#+begin_exercice [X PC 2025 # 454] #+begin_exercice [X PC 2025 # 454]
Une suite $(S_n)$ de variables aléatoires à valeurs dans $\N$ est dite *transiente* si, pour toute partie bornée $A$ de $\N$, on a $\sum_{n \in \N} \mathbf{P}(S_n \in A) \lt +\i$. Soit $(X_n)_{n \geq 1}$ une suite $i$.i.d. de variables Une suite $(S_n)$ de variables aléatoires à valeurs dans $\N$ est dite *transiente* si, pour toute partie bornée $A$ de $\N$, on a $\sum_{n \in \N} \mathbf{P}(S_n \in A) \lt +\i$. Soit $(X_n)_{n \geq 1}$ une suite i.i.d. de variables
aléatoires telle que $\mathbf{P}(X_1 = 1) = p$ et $\mathbf{P}(X_1 = -1) = 1 - p$, avec $p \in ]0,1[$. On pose $S_n = X_1 + \cdots + X_n$. Montrer que $(S_n)$ est transiente si et seulement si $p \neq 1/2$. aléatoires telle que $\mathbf{P}(X_1 = 1) = p$ et $\mathbf{P}(X_1 = -1) = 1 - p$, avec $p \in ]0,1[$. On pose $S_n = X_1 + \cdots + X_n$. Montrer que $(S_n)$ est transiente si et seulement si $p \neq 1/2$.
#+end_exercice #+end_exercice
#+begin_exercice [X PC 2025 # 455] #+begin_exercice [X PC 2025 # 455]
Soit $(X_k)_{k\geq 1}$ une suite de variables aléatoires $i$.i.d. telle que $\mathbf{P}(X_k=1)=p$ et Soit $(X_k)_{k\geq 1}$ une suite de variables aléatoires i.i.d. telle que $\mathbf{P}(X_k=1)=p$ et
$$P(X_k = -1) = 1 - p$$ $$P(X_k = -1) = 1 - p$$
. On pose $S_n = \sum_{k=1}^n X_k$, $T = \inf\{n \in \N^*, S_n = 1\}$ et $f_n = P(T = n)$. . On pose $S_n = \sum_{k=1}^n X_k$, $T = \inf\{n \in \N^*, S_n = 1\}$ et $f_n = P(T = n)$.
@ -3795,6 +3843,7 @@ Soit $X = (X_1, \dots, X_n)^T$ un vecteur aléatoire à valeurs dans $\R^n$. On
1. On suppose que $m$ = $n$ + 1. Montrer que $X$ est centrée-réduite si et seulement si, pour tous $i \neq i$ $\langle V_i, V_j \rangle = -1$ et pour tout $i$ n = 1 1. On suppose que $m$ = $n$ + 1. Montrer que $X$ est centrée-réduite si et seulement si, pour tous $i \neq i$ $\langle V_i, V_j \rangle = -1$ et pour tout $i$ n = 1
tous $i \neq j$, $\langle V_i, V_j \rangle = -1$ et, pour tout $i$, $p_i = \frac{1}{\|V_i\|^2 + 1}$. tous $i \neq j$, $\langle V_i, V_j \rangle = -1$ et, pour tout $i$, $p_i = \frac{1}{\|V_i\|^2 + 1}$.
#+end_exercice #+end_exercice
* De Christophe :xens: * De Christophe :xens:
#+call: get_exo(1545) #+call: get_exo(1545)