diff --git a/Exercices 2024.org b/Exercices 2024.org index c678f42..f72ba83 100644 --- a/Exercices 2024.org +++ b/Exercices 2024.org @@ -2,7 +2,7 @@ #+title: Exercices 2024 #+author: Sébastien Miquel #+date: 20-11-2024 -# Time-stamp: <04-05-25 20:47> +# Time-stamp: <07-05-25 16:51> * Meta :noexport: @@ -14,7 +14,7 @@ #+RESULTS: | ? | ! | todo | unexed | unexed xens | -| 1 | 5 | 12 | 957 | 15 | +| 1 | 5 | 8 | 953 | 11 | ** Options @@ -1976,12 +1976,12 @@ On munit $\M_n(\R)$ de sa structure euclidienne canonique. - On note $S=\M_n(\R)\setminus\op{GL}_n(\R)$. Montrer que, pour tout $A\in\op{GL}_n(\R)$, il existe $M_0\in S$ telle que $d(A,S)=\lN À - M_0\rN$. - Rappeler le résultat sur les extrema sous contrainte. Que peut-on en déduire sur la matrice $M_0$ définie ci-dessus? #+end_exercice -#+BEGIN_remarque +#+BEGIN_proof - - $0$ - $S$ est fermé. - On travaille sous $\det M = 0$, est la différentielle du déterminant est $H\mapsto \op{Tr}(\op{Com} M_0^T H)$, donc $\op{Com} M_0^T$ est colinéaire à $A-M_0$. -#+END_remarque +#+END_proof ** Géométrie @@ -2116,7 +2116,8 @@ On note ${\rm AA}=\{xy,\ (x,y)\in A^2\}$. #+END_proof -#+begin_exercice [ENS MP 2024 # 146] :todo: +# ID:8091 +#+begin_exercice [ENS MP 2024 # 146] Soient $\lambda\gt 0$ et $N_{\lambda}$ une variable de Poisson de paramètre $\lambda$. Pour $f\colon\N\ra\R$ bornée, on pose $Tf:n\in\N\mapsto\lambda f(n+1)-nf(n)$. @@ -2125,6 +2126,14 @@ Pour $f\colon\N\ra\R$ bornée, on pose $Tf:n\in\N\mapsto\lambda f(n+1)-nf(n)$. Montrer l'existence de $C_{\lambda}\gt 0$ tel que, pour toute variable aléatoire à valeurs dans $\N$, $d(N,N_{\lambda})\leq C_{\lambda}\sup_{\|f\|_{\i}\leq 1}{\bf E}(Tf(N))$. #+end_exercice +#+BEGIN_proof + - + - $d(X,Y) = \sum |P(X = n) - P(Y = n)|$, donc $d(N, N_{\la}) = \sum \big|\frac{\la^n}{n!}e^{-\la} - P(N = n)\big|$, et $\E(Tf(N)) = \sum \big|\la P(N=n-1) - n P(N=n)\big|$. + + Essentiellement, la première somme est $\sum |v_1 \dots v_n - u_n|$, et on peut majorer $|v_1 \dots v_n - u_n| = v_n |v_1 \dots v_{n-1} - \frac{u_n}{v_n}| \leq v_n \big|u_{n-1} - \frac{u_n}{v_n}\big| + v_n |u_{n-1} - v_1 \dots v_{n-1}|$. + + En appliquant ça plein de fois, le terme $|u_{n-1} - \frac{u_n}{v_n}|$ apparaît en facteur de $v_n + v_n v_{n+1} + v_n v_{n+1}v_{n+2} + \dots$, ce qui est $\frac{P(N \geq n)}{P(N = n-1)}$, c'est-à-dire une constante. +#+END_proof # ID:8026 @@ -2158,21 +2167,30 @@ Soit $(E,\langle\,\ \rangle)$ un espace euclidien. Soient $v_1,\ldots,v_n\in E$ #+end_exercice -#+begin_exercice [ENS MP 2024 # 149] :todo: +# ID:8092 +#+begin_exercice [ENS MP 2024 # 149] Soit $(X_n)_{n\geq 1}$ une suite de variables aléatoires i.i.d sur $\Z$ à support fini suivant la loi $\mu$. On pose $\nu(k)=\frac{e^{\lambda k}\mu(k)}{{\bf E}(e^{\lambda X_1})}$ et on considére une suite $(Y_n)_{n\geq 1}$ i.i.d suivant la loi $\nu$. On pose $S_n=\sum_{k=1}^nX_k$ et $T_n=\sum_{k=1}^nY_k$. On prend $\lambda\geq 0,a\in\R,\eps\gt 0,n\geq 1$. - Montrer que ${\bf P}(na\leq T_n\leq(a+\eps)n)\leq\frac{e^{ \lambda n(a+\eps)}}{({\bf E}(e^{\lambda X}))^n}{\bf P}(S_n\geq na)$. - On suppose $X\sim-X$ et $\exists k\gt a,\ (a\gt 0),\ \mu(k)\gt 0$. Démontrer que $\frac{1}{n}\ln{\bf P}(S_n\geq na)\xrightarrow[n\ra+\i]{}\inf_{s \geq 0}(-sa+\log{\bf E}(e^{sX}))$. #+end_exercice -#+BEGIN_proof :todo: +#+BEGIN_proof - Écrire explicitement la loi de $T_n$, comme une somme sur les configurations des $X_i$ possibles. - D'après la question précédente $\frac{1}{n}\ln \P(S_n\geq a)\geq -\la (a+\eps) + \ln \E(e^{s X}) + \frac{1}{n}\ln \left(\P(na \leq T_n \leq (a+\eps) n)\right)$. Par Par ailleurs, en l'appliquant à $a+\eps$, c'est aussi $\geq -\la (a + 2\eps) + \ln \E(e^{\la X}) + \frac{1}{n}\ln \left(\P(na \leq T_n \leq (a+\eps) n)\right)$. - Si on écrit plutôt $\P(na \leq S_n \leq (a+\eps)n)\leq \frac{e^{-\la n (a+\eps)}}{\E(e^{-\la X})^n} \P(T_n \geq na)$, le $-\la X$ au dénominateur est. + Faire l'opération inverse, c'est-à-dire passer de $\nu$ à $\mu$, consiste à poser $\mu = \frac{e^{-\la k}\nu(k)}{\E (e^{-\la \nu})} = e^{-\la k \nu(k)} \E (e^{\la \mu})$, donc on obtiendrait + + Si on écrit plutôt $\P(na \leq S_n \leq (a+\eps)n)\leq e^{-\la n (a+\eps)} \E(e^{\la X})^n \P(T_n \geq na)$. + + Donc $\P(S_n \geq na) \leq \sum_{k\geq n} e^{-\la n (a+k\eps)} \E\big(e^{\la X}\big)^n \P(T_n \geq n (a+ k\eps ))$, ce qui donne une somme géométrique que l'on veut. On obtient que $\P(S_n \geq na)\leq \inf_{\la} \dots$. + + En fait, c'est direct par l'inégalité de Markov exponentielle. + + Dans l'autre sens, on dérive l'expression, et on peut vérifier que pour le $s$ réalisant l'inf, on a $\E(T_n) = a$. Comme le support est fini, on a un contrôle sur la variance, et Bienaymé-Tchebychev permet de minorer $\P(n a \leq t_n \leq (a+\eps)n)$ par une constante. #+END_proof @@ -2265,8 +2283,14 @@ Soit $(X_k)_{k\in\N^*}$ une suite de variables aléatoires indépendantes telle #+begin_exercice [ENS MP 2024 # 157] :todo: Soit $(X_n)_{n\in\N}$ une suite de variables aléatoires à valeurs dans $\N$ telle que, pour tous $n,k\in\N$, $\mathbf{P}\left(X_n=k\right)\gt 0$. Soit $N\in L^2$ une variable aléatoire à valeurs dans $\N$, indépendante de $(X_k)_{k\in\N}$. On pose $X=X_N$. - Montrer qu'il existe une unique fonction $f_0\colon\N\ra\R$, que l'on déterminera, telle que $\mathbf{E}\left((f_0(X)-N)^2\right)=\min\limits_{g\colon\N\ra\R} \mathbf{E}\left((g(X)-N)^2\right)$. - - On pose, pour tout $n\in\N$ et tout $g\colon\N\ra\R$, $R(g,n)=\mathbf{E}\left((g(X_n)-n)^2\right)$. Montrer que, si la suite $(R(f_0,n))_{n\in\N}$ est constante egale à un certain $R_0$, alors $R_0=\min\limits_{g\colon\N\ra\R}\sup\limits_{n\in\N}R(g,n)$ et $f_0$ est l'unique fonction vérifiant cette condition. + - On pose, pour tout $n\in\N$ et tout $g\colon\N\ra\R$, $R(g,n)=\mathbf{E}\left((g(X_n)-n)^2\right)$. Montrer que, si la suite $(R(f_0,n))_{n\in\N}$ est constante égale à un certain $R_0$, alors $R_0=\min\limits_{g\colon\N\ra\R}\sup\limits_{n\in\N}R(g,n)$ et $f_0$ est l'unique fonction vérifiant cette condition. #+end_exercice +#+BEGIN_proof + - L'espérance de droite est $\sum_{i\in\N} P(N = i) \E((g(X_i)-i)^2)$. En écrivant l'espérance par transfert, et en échangeant les sommes, on obtient + $$\sum_k \sum_i \P(N=i)\P(X_i = k) (g(k) - i)^2.$$ + On peut minimiser chaque sous somme, en prenant $g(k) = \frac{\E(N \mid X = k)}{P(X = k)}$ + - +#+END_proof # ID:7765 @@ -3282,7 +3306,8 @@ Soit $d\in\Z\setminus\{0\}$. On considére l'équation $(*)\colon x^2-dy^2=1$ d' #+end_exercice -#+begin_exercice [X MP 2024 # 276] :todo: +# ID:8094 +#+begin_exercice [X MP 2024 # 276] - Soit $\mathbb{F}$ un corps fini. On admet que le groupe multiplicatif $\mathbb{F}^{\times}$ est cyclique. Soient $n\geq 1$ et $u\in\mathbb{F}$. On note $\widehat{\mathbb{F}^{\times}}$ l'ensemble des morphismes de $\mathbb{F}^{\times}$ dans $\C^*$ prolongés par $0$ en $0$. On note $N(X^n=u)$ le nombre de zéros du polynôme $X^n-u$ dans $\mathbb{F}$. On note $\widehat{\mathbb{F}^{\times}}[n]$ l'ensemble des $\chi\in\widehat{\mathbb{F}^{\times}}$ tels que $\chi^n=1$. @@ -3295,7 +3320,7 @@ Soit $d\in\Z\setminus\{0\}$. On considére l'équation $(*)\colon x^2-dy^2=1$ d' Montrer que $N(X^3+Y^3=1)=p-2-a_p$ avec $a_p^2+27b_p^2=4p$ ou $b_p\in\Z$. #+end_exercice -#+BEGIN_proof :todo: +#+BEGIN_proof - Si $\a^n = u$, alors $\chi(\a)^n = \chi(u) = 1$, et il y a autant de $\chi$ que de racines $n$-ième de $1$. Si $u$ n'a pas de racine $n$-ième, idem, $\chi$ est défini par $\chi(\gamma)$ et $u$ s'écrit $u = \gamma^k$. - On écrit $N(X^3 + Y^3 = 1)$ comme $\sum_{a,b \mid a+b = 1} N(X^3 = a) N(Y^3 = b)$. @@ -3304,17 +3329,9 @@ Soit $d\in\Z\setminus\{0\}$. On considére l'équation $(*)\colon x^2-dy^2=1$ d' Les premières sommes sont nulles. On obtient exactement la somme sur $J$. Comme $\m F^\times$ est cyclique, les éléments de $\m F^{\times}[3]$ sont $\om$ et $\om^2$. La somme comporte $J(\om, \om) + J(\om, \om^2) + J(\om^2, \om) + J(\om^2, \om^2)$, et on trouve $J(\om, \om^2) = -1$. Les deux autres sont conjugués. - - On a $J(\om, \om)$ qui est dans $\Z[e^{\frac{2i \pi}{3}}] = \Z[j, j^2] = \Z[j]$. Il s'écrit donc $(c-\frac{d}{2}) + i d \frac{\sqrt{3}}{2}$, et on a $(c- d/2)^2 + 3d^2/4 = p$, donc $c^2 - dc + d^2 = p$. + - On a $J(\om, \om)$ qui est dans $\Z[e^{\frac{2i \pi}{3}}] = \Z[j, j^2] = \Z[j]$. Il s'écrit donc $(c-\frac{d}{2}) + i d \frac{\sqrt{3}}{2}$, et on a $(c- d/2)^2 + 3d^2/4 = p$, donc $4p = (2c-d)^2 + 3d^2$, c'est-à-dire $p = c^2 - cd + d^2$, donc $4p = (2d-c)^2 + 3c^2$. - On prend donc $a_p = d - 2c$. Le résultat voulu revient à montrer - que $d$ est un multiple de $3$, donc que $J(\om,\om) = a + 3 d' j$. - - On a $\sum_{x\in \m F} \om(x)\zeta_p^x$. - - C'est donc $\sum_{x=1}^{p-1} (\zeta_p' j)^x = \frac{\zeta_p' j - j}{1 - \zeta_p j}$ (ici, on utilise $p\equiv 1[3]$). On l'élève à la puissance $3$, on obtient $\frac{(\zeta_p' - 1)^3}{(1 - \zeta_p j)^3}$ qui s'écrit on obtient $1 - 3\frac{\zeta_p'^2 - \zeta_p'}{(1-j \zeta_p')^3}$. Donc le quotient appartient à $\Q[j]$ (étant égal à $pJ$). - - On écrit ça comme $(1-j\zeta_p)^3 pJ = (1-j\zeta_p)^3 - 3 - (\zeta_p^2 - \zeta_p)$ (remarque : $\zeta_p$ ici est un $e^{\frac{2i k\pi}{p}}$, où $k$ est un générateur de $\m F^{\times}$, mais c'est quand même bizarre) + Si $d$ est un multiple de trois, ou $c$ est un multiple de $3$, on est bon. Sinon, on peut écrire $4p = (c+d)^2 + 3 (c-d)^2$. Comme $c\not\equiv -d$, on a $3\mid c- d$. #+END_proof @@ -3550,6 +3567,10 @@ Soient $V$ un $\R$-espace vectoriel de dimension finie, et $a,b\in\mc{L}(V)$. Po #+BEGIN_proof :todo: On a $(AB - BA)^k = AB (AB - BA)^{k-1} - BA (AB-BA)^{k-1}$, et on peut passer le $A$ de l'autre côté, donc la trace s'annule. +Pour la seconde partie, on a $ab = ba + X$. Le noyau de $a$ est stable par $X = [a,b]$, et sur le noyau, on a $ab u = Xu$, donc $ab$ est nilpotent sur $\Ker a$. + +De même, $\Ker a^2$ est stable par $X$, + Si $ab(x) = \la x$, $ba(x) = \la x - [a, b](x)$ Dans le produit $(ab)^n = ababab\dots ab$, on fait passer les $a$ à droite. @@ -3685,7 +3706,7 @@ Soit $\mc{A}$ un sous-espace vectoriel de $\M_n(\R)$ stable par crochet de Lie : # ID:7907 #+begin_exercice [X MP 2024 # 303] Soit $E$ un espace vectoriel de dimension $n$. Un drapeau de $E$ est une famille de sous-espaces $(F_i)_{i\in\db{0,n}}$ telle que $F_0\subsetneq F_1\subsetneq\cdots\subsetneq F_n$. - - Soit $(F_i)_{i\in\db{0,n}}$ un drapeau de $E$. Déterminer $\dim F_k$ pour tout $k\in \db{}0,n}$. + - Soit $(F_i)_{i\in\db{0,n}}$ un drapeau de $E$. Déterminer $\dim F_k$ pour tout $k\in \db{0,n}$. - E On considére dorénavant deux drapeaux $(F_i)_{i\in\db{0,n}}$ et $(G_i)_{i\in\db{0,n}}$. - Soient $i\in\db{1,n}$, $j_0\in\db{0,n}$ tels que $F_{i-1}+G_{j_0}=F_i+G_{j_0}$. Montrer que, pour tout $j\geq j_0$, $F_{i-1}+G_j=F_i+G_j$. @@ -4440,15 +4461,23 @@ Soit $t\gt 0$. Our $p\in\R$, on pose $F_c(p)=\int_0^{+\i}e^{-tx^2}\cos(px^2)\dx$ #+END_proof -#+begin_exercice [X MP 2024 # 362] :todo: -Soit $f\colon\R^+\ra\R^{+*}$ de classe $\mc C^1$ telle que $\frac{xf'(x)}{f(x)}\ra a\in\R$ quand $x\ra+\i$. - - Soit $m\in\R^{+*}$. Montrer que $x\mapsto\frac{f(mx)}{f(x)}$ admet une limite en $+\i$ ; la calculer. +# ID:8093 +#+begin_exercice [X MP 2024 # 362] +Soit $f\colon\R^+\ra\R_+^{*}$ de classe $\mc C^1$ telle que $\frac{xf'(x)}{f(x)}\ra a\in\R$ quand $x\ra+\i$. + - Soit $m\in\R_+^{*}$. Montrer que $x\mapsto\frac{f(mx)}{f(x)}$ admet une limite en $+\i$ ; la calculer. - - Soit $I:t\mapsto\int_0^{+\i}e^{-tx}f(x)dx$. - - Montrer que $I$ est définie sur $\R^{+*}$. + - Soit $I\colon t\mapsto\int_0^{+\i}e^{-tx}f(x)\dx$. + - Montrer que $I$ est définie sur $\R_+^*$. - Montrer que $I$ admet une limite finie en $+\i$. - Supposons $a\lt -1$. Déterminer la limite de $I$ en $0^+$. #+end_exercice +#+BEGIN_proof + - On a $\frac{f'}{f}\sim \frac{a}{x}$, et on intègre. On obtient $\ln (f(mx)) - \ln f(x) = \ln m + o_{+\i}(1)$, donc $\frac{f(mx)}{f(x)}\ra m^a$ + - + - La question précédente donne une majoration de $f$, en fonction de sa restriction sur $[1, 2]$ par exemple. + - convergence dominée. + - Revient exactement à montrer que $f$ est intégrable. +#+END_proof #+begin_exercice [X MP 2024 # 363] :todo: @@ -5400,7 +5429,7 @@ Soit $N\geq 1$ et $(X_n)_{n\geq 1}$ indépendantes de même loi $\mu$ sur $\db{1 # ID:8007 #+BEGIN_exercice Soit $n \in \N^*$. On considère $v=\left(v_i\right)_{i \in \Z / n \Z} \in \R^{\Z / n \Z}$ et $\left(t_i\right)_{i \in \Z / n \Z} \in \interval]{0, 1}[^{\Z / n \Z}$. -On définit $\left(v^{(k)}\right)_{k \in \N}=\left(v_i^{(k)}\right)_{i \in \Z / n \Z, k \in \N} \in\left(\R^{\Z / n \Z}\right)^{\N}$ par : $\quad\displaystyle \left\{\begin{array}{l} v_i^{(0)}=v_i \\ v_i^{(k+1)}=\left(1-t_i\right) v_i^{(k)}+t_i v_{i+1}^{(k)} \end{array}$. +On définit $\left(v^{(k)}\right)_{k \in \N}=\left(v_i^{(k)}\right)_{i \in \Z / n \Z, k \in \N} \in\left(\R^{\Z / n \Z}\right)^{\N}$ par : $\quad\displaystyle \begin{cases} v_i^{(0)}=v_i \\ v_i^{(k+1)}=\left(1-t_i\right) v_i^{(k)}+t_i v_{i+1}^{(k)} \end{cases}$. Montrer que les $\left(v_i^{(k)}\right)_{k \in \N}$ convergent vers la même limite. #+END_exercice