From e6a5f76a19e434d5d57af4446e56ea8cc9dc148d Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?S=C3=A9bastien=20Miquel?= Date: Tue, 27 May 2025 19:50:21 +0200 Subject: [PATCH] Quelques derniers --- Exercices 2023.org | 4 +- Exercices 2024.org | 102 ++++++++++++++++++++++++++++++--------------- 2 files changed, 70 insertions(+), 36 deletions(-) diff --git a/Exercices 2023.org b/Exercices 2023.org index 038a91e..45f881d 100644 --- a/Exercices 2023.org +++ b/Exercices 2023.org @@ -2,7 +2,7 @@ #+title: Exercices 2023 #+author: Sébastien Miquel #+date: 02-12-2023 -# Time-stamp: <30-11-24 16:51> +# Time-stamp: <08-05-25 12:50> #+OPTIONS: @@ -1320,7 +1320,7 @@ Soit $q\in\N^*$. Déterminer la limite de $(\frac{1}{n}\op{tr}\left(A_n^q\right) #+BEGIN_proof Pour $q$ impair la trace est nulle. -Pour $q$ pair, en interprétant comme un graphe, on obtient quelque chose proche de somme de Riemann, et on tend vers ${q \choose q/2}\int_0^1 f(x)^q \dx$. +Pour $q$ pair, en interprétant comme un graphe, on obtient quelque chose proche de sommes de Riemann, et on tend vers ${q \choose q/2}\int_0^1 f(x)^q \dx$. #+END_proof diff --git a/Exercices 2024.org b/Exercices 2024.org index f72ba83..6970b97 100644 --- a/Exercices 2024.org +++ b/Exercices 2024.org @@ -2,7 +2,7 @@ #+title: Exercices 2024 #+author: Sébastien Miquel #+date: 20-11-2024 -# Time-stamp: <07-05-25 16:51> +# Time-stamp: <27-05-25 19:42> * Meta :noexport: @@ -14,7 +14,7 @@ #+RESULTS: | ? | ! | todo | unexed | unexed xens | -| 1 | 5 | 8 | 953 | 11 | +| 1 | 2 | 2 | 947 | 5 | ** Options @@ -26,6 +26,7 @@ # #+OPTIONS: toc:t # #+export_file_name: Exercices 2024 +# #+exclude_types: proof *** XENS @@ -2280,7 +2281,8 @@ Soit $(X_k)_{k\in\N^*}$ une suite de variables aléatoires indépendantes telle #+END_proof -#+begin_exercice [ENS MP 2024 # 157] :todo: +# ID:8120 +#+begin_exercice [ENS MP 2024 # 157] Soit $(X_n)_{n\in\N}$ une suite de variables aléatoires à valeurs dans $\N$ telle que, pour tous $n,k\in\N$, $\mathbf{P}\left(X_n=k\right)\gt 0$. Soit $N\in L^2$ une variable aléatoire à valeurs dans $\N$, indépendante de $(X_k)_{k\in\N}$. On pose $X=X_N$. - Montrer qu'il existe une unique fonction $f_0\colon\N\ra\R$, que l'on déterminera, telle que $\mathbf{E}\left((f_0(X)-N)^2\right)=\min\limits_{g\colon\N\ra\R} \mathbf{E}\left((g(X)-N)^2\right)$. - On pose, pour tout $n\in\N$ et tout $g\colon\N\ra\R$, $R(g,n)=\mathbf{E}\left((g(X_n)-n)^2\right)$. Montrer que, si la suite $(R(f_0,n))_{n\in\N}$ est constante égale à un certain $R_0$, alors $R_0=\min\limits_{g\colon\N\ra\R}\sup\limits_{n\in\N}R(g,n)$ et $f_0$ est l'unique fonction vérifiant cette condition. @@ -2289,7 +2291,7 @@ Soit $(X_n)_{n\in\N}$ une suite de variables aléatoires à valeurs dans $\N$ te - L'espérance de droite est $\sum_{i\in\N} P(N = i) \E((g(X_i)-i)^2)$. En écrivant l'espérance par transfert, et en échangeant les sommes, on obtient $$\sum_k \sum_i \P(N=i)\P(X_i = k) (g(k) - i)^2.$$ On peut minimiser chaque sous somme, en prenant $g(k) = \frac{\E(N \mid X = k)}{P(X = k)}$ - - + - On a vu que l'espérance de droite est $H(g) = \sum_i \P (N=i) R(g, i)$. On suppose que les $R(f_0, i)$ sont tous égaux. Alors trivialement $R_0$ est le min des sup comme annoncé. Et si une autre fonction le vérifiait, elle aurait la même valeur que $f_0$, et l'optimisation de la question précédente montre que ce n'est pas possible, je pense. #+END_proof @@ -3181,12 +3183,16 @@ On se donne donc $A=\{a_1\dots,a_n\}$ une partie finie non vide de $\R$, avec $a - Soit $n\geq 1$, premier avec $10$. Montrer que $n$ possède un multiple dont l'écriture en base $10$ n'a que des $9$. - On remarque que $\frac{1}{7}=0,\underline{142857}\underline{142857}\ldots\underline{142857}\ldots$ avec $142+857=999$. - $\frac{285+714}{7}=0,\underline{285714}\underline{285714}\ldots\underline{285714}\ldots$ $076+923=999$ +$\frac{285+714}{7}=0,\underline{285714}\underline{285714}\ldots\underline{285714}\ldots$ $076+923=999$ $\frac{1}{13}=0,\underline{076923}$ $\underline{076923}\ldots\underline{076923}\ldots$ Expliquer. #+end_exercice +#+BEGIN_proof + - + - La période est l'ordre de $10$ modulo $n$. Le résultat +#+END_proof # ID:nil @@ -3560,27 +3566,20 @@ Soit $M\in\M_n(\R)$. #+END_proof -# See 7791 -#+begin_exercice [X MP 2024 # 292] :todo: +# ID:8095 +#+begin_exercice [X MP 2024 # 292] Soient $V$ un $\R$-espace vectoriel de dimension finie, et $a,b\in\mc{L}(V)$. Pour $u,v\in\mc{L}(V)$, on pose $[u,v]=uv-vu$. On suppose que $a$ est nilpotent et que $[a,[a,b]]=0$. Montrer que $[a,b]$ et $ab$ sont nilpotents. #+end_exercice -#+BEGIN_proof :todo: +#+BEGIN_proof On a $(AB - BA)^k = AB (AB - BA)^{k-1} - BA (AB-BA)^{k-1}$, et on peut passer le $A$ de l'autre côté, donc la trace s'annule. -Pour la seconde partie, on a $ab = ba + X$. Le noyau de $a$ est stable par $X = [a,b]$, et sur le noyau, on a $ab u = Xu$, donc $ab$ est nilpotent sur $\Ker a$. +on note $X = [a,b]$, de sorte que $X$ commute avec $a$ et $ab = ba + X$. -De même, $\Ker a^2$ est stable par $X$, +Le noyau de $a$ est stable par $ba$ et par $X$, donc par $ab$. Sur cette restriction, on a $ab = X$, qui est nilpotent. -Si $ab(x) = \la x$, $ba(x) = \la x - [a, b](x)$ +Considérons $F_2 = \Ker a^2$. Il est stable par $X$. Qu'advient-il sous l'action de $ba$ ? On a $aba F_2 \subset ab F_1 \subset F_1$, donc $ba F_2 \subset a^{-1}(F_1) = F_2$, donc $F_2$ est stable par $ba$. -Dans le produit $(ab)^n = ababab\dots ab$, on fait passer les $a$ à droite. - $(ab)^n = ba^2baba\dots ab + [a,b]abab\dots ab$. - - Si on les fait tous en même temps, on a $\prod ab = \prod (ba + [a,b]) = b (ab)^{n-1}a$. - -On note $a_0 = a$, et $a_{i+1} = [b, a_i]$. La suite $(a_i)$ commutent avec elle-même, et sont nilpotents. - -En effet, le résultat précédent montre que si $a_i$ est nilpotent et commute avec $a_{i+1}$, alors $a_{i+1}$ est nilpotent, et commute avec $a_{i+2}$, car $[a_{i+1}, [a_{i+1}, b]]$ vaut $[a_{i+1}, [[a_i, b], b]] = [[a_i, b], [[a_i, b], b]]$ !! Nope +Par ailleurs, dans le quotient $F_2/F_1$, on a $ba$ qui est nul, donc $ab$ est nilpotent. #+END_proof @@ -3651,10 +3650,12 @@ Soient $A,B\in\M_n(\R)$ commutant à $AB-BA$. - Calculer $\exp(A+B)$. #+end_exercice #+BEGIN_proof - - + - On trouve $B + t[A,B]$ - On doit trouver $e^A e^B e^{-1/2 [A,B]}$. On pose $U(t) = e^{tA} e^{tB}$. On a $U'(t) = e^{tA}(A+B)e^{tB} = (A+e^{At}B e^{-At}) U(t) = (A+B + t[A,B]) U(t)$. + + Ensuite poser $V = e^{-t^2/2 [A,B]} U(t)$. #+END_proof @@ -3692,14 +3693,23 @@ Soit $E$ un $\C$-espace vectoriel de dimension finie. Soient $a,b\in\mc{L}(E)$. #+end_exercice -#+begin_exercice [X MP 2024 # 302] :todo: +# ID:8122 +#+begin_exercice [X MP 2024 # 302] Soit $\mc{A}$ un sous-espace vectoriel de $\M_n(\R)$ stable par crochet de Lie : pour $M,N\in\mc{A}$, $[M,N]=MN-NM\in\mc{A}$. - On suppose que, pour tout $M\in\mc{A}$, $N\mapsto[M,N]$ induit un endomorphisme diagonalisable de $\mc{A}$. Montrer que $\forall M,N\in\mc{A}$, $[M,N]=0$. - On suppose que $\dim\mc{A}\leq 3$ et que, pour tout $M\in\mc{A}$, $N\mapsto[M,N]$ induit un endomorphisme nilpotent de $\mc{A}$. On pose $\mc{A}_0=\mc{A}$ et, pour $j\in\N$, $\mc{A}_{j+1}=\{[M,N],\ (M,N)\in\mc{A}_j^2\}$. Montrer que $\mc{A}_3=\{0\}$. #+end_exercice -#+BEGIN_proof :todo: - - Si $[M, N] = \la N$, alors $[M, [M,N]] = [M, \la N] = \la^2 N$, mais - - +#+BEGIN_proof + - Écrire $[X,Y] = \la Y$, avec $\la\neq 0$, alors $X = \sum \mu_i E_{i, Y}$ (vecteurs propres de $Y$) donc $[X,Y] = \sum \mu_i \la_i E_{i, Y} = \la Y$, et en appliquant à nouveau $\op{ad}_Y$ on devrait trouver $0$. + - Il s'agit de montrer que $\dim [\mc A, \mc A] \lt \dim \mc A$. + + Si $\dim A = 1$ c'est clair. + + Si $\dim \mc A = 2$, avec $\mc A = \vect (U, V)$, tout crochet de Lie est colinéaire à $[U, V]$, donc $\dim [\mc A, \mc A]\leq 1$. + + Si $\dim \mc A = 3$, avec $\mc A = \vect (U, V, W)$. On peut voir $\op{ad}_{U},\dots,\op{ad}_{W}$ comme des matrices $3\times 3$, qui sont par ailleurs nilpotentes. + + On considère $\op{ad}_U$. Sa matrice est de la forme $\begin{pmatrix}0 & * & * \\ 0 & * & * \\ 0 & * & * \end{pmatrix}$. Le bloc carré du bas doit être nilpotent, donc il existe $V$ tel que $\op{ad}_U(V) = \la U$. Alors $\op{ad}_U(W)\subset \vect(U, V)$, sinon, non nilpotent, et de même pour $\op{ad}_V(W)$, car sinon, non nilpotent ! Alors $[\mc A,\mc A]\subset \vect (U,V)$. #+END_proof @@ -4061,15 +4071,22 @@ Si $\sum \frac{1}{1+n^2u_n}$ converge, alors $n^2 u_n \ra +\i$, donc (équivalen #+END_proof -#+begin_exercice [X MP 2024 # 331] :todo: +# ID:8119 +#+begin_exercice [X MP 2024 # 331] - Soit $(u_n)_{n\geq 0}\in(\R^{+*})^{\N}$. Pour $n\in\N$, on pose $S_n=u_0+\cdots+u_n$. On suppose que $\frac{S_n}{nu_n}\xrightarrow[n\ra+\i]{}a\gt 0$. Déterminer la nature de $(S_n)$. Donner un équivalent de $\frac{1}{u_n}\sum_{k=0}^nku_k$. - Soient $(u_n)_{n\geq 0},(v_n)_{n\geq 0}\in(\R^{+*})^{\N}$. Pour $n\in\N$, on pose $S_n=u_0+\cdots+u_n$ et $T_n=v_0+\cdots+v_n$. On suppose que $\frac{S_n}{nu_n}\tend{n\ra+\i}a\in\R_+^{*}$ et $\frac{T_n}{nv_n}\tend{n\ra+\i}b\in\R_+^{*}$. Donner un équivalent de $\frac{1}{u_nv_n}\sum_{k=0}^nu_kv_k$. #+end_exercice -#+BEGIN_proof :todo: +#+BEGIN_proof - $(S_n)$ est croissante. Si elle convergeait, on aurait $u_n \sim \frac{\l}{n}$, contradiction. - Alors par sommation des équivalents, $\sum ku_k \sim \sum S_k = \sum (n-k) u_k$, et la somme des deux fait $nS_n$. On trouve comme équivalent $\frac{n^2}{2}$ (si $a = 1$) - - !! + Alors par sommation des équivalents, $\sum ku_k \sim \frac{1}{a}\sum S_k = \frac{1}{a}\sum (n-k) u_k$. En séparant, on obtient $\frac{\sum k u_k}{u_n}\sim \frac{n S_n}{u_n} \frac{1}{a (1+1/a)} \sim \frac{n^2}{a + 1}$. + - On peut appliquer le même raisonnement à $\sum u_k k^{\b}$ : on fait Abel, et on obtient deux séries équivalentes (à un facteur) + le crochet. Mais cela ne tient que si $\sum u_k k^{\b}$ diverge. On utilise uniquement que $(k+1)^{\b} - k^{\b} \sim \frac{k^{\b}}{k}$. + + On peut montrer que $u_{n+1}\sim u_n$, puis que $u_{n+1} - u_n$. + + Sous l'hypothèse que $\sum u_k v_k$ diverge, on peut remplacer $u_k v_k$ par $U_k = \frac{S_k}{k}$ et $V_k =\frac{T_k}{k}$, et on peut vérifier que $U_{k+1} - U_k \sim \frac{u_k}{k}\sim \frac{U_{k+1}}{U_k}$, ce qui permet de faire la transformation d'Abel précédente, sur les $U_k$. + + Si $\sum u_k v_k$ converge (ce qui est possible), on ne peut rien dire, si ce n'est qu'on est équivalent à la somme divisé par $\frac{1}{u_n v_n}$. #+END_proof @@ -4125,7 +4142,8 @@ Dériver deux fois, on obtient que $f''$ est une moyenne. Considérer le maximum #+END_proof -#+begin_exercice [X MP 2024 # 336] :todo: +# ID:8121 +#+begin_exercice [X MP 2024 # 336] Soient $N$ et $d$ deux entiers supérieurs ou egaux à 1. On pose $D=\db{-N,N}^d$ et on note $(e_1,\ldots,e_d)$ la base canonique de $\R^d$. On note $\partial D=\left\{\sum_{i=1}^dx_ie_i\,;\,(x_1,\ldots,x_n)\in D,\; \exists i\in\db{1,d},\;|x_i|=N\right\}$ et $\overset{\circ}{D}=D\setminus\partial D$. @@ -4139,10 +4157,14 @@ On pose, pour $x\in\overset{\circ}{D}$, $Mu(x)=\prod_{i=1}^d\Delta_iu(x)$. - Montrer que $A$ est non vide. - Montrer que $u\in A$ et que $Mu=f$. #+end_exercice -#+BEGIN_proof :todo: +#+BEGIN_proof - Prendre $u = prod (N^2 - x_i^2)$ - L'ensemble $D$ est fini. - - L'inf de fonctions concaves est concave, et on a $Mh\geq f$. Si $Mh \gt f$ en un point. !! + - L'inf de fonctions concaves est concave, et on a $Mh\geq f$. Si $Mh \gt f$ en un point, alors en ce point on a $\Delta_i h(x)\gt 0$. On peut retirer à $h$ un petit multiple du $u$ de la première question, pour $N = 1$, on préserve la convexité en $x$ et on diminue $Mh$. + + Prenons $f$ nulle partout, sauf en un point $a$. On va prendre une fonction concave, nulle partout, avec une valeur différente $v$ en $a$, de sorte que $(2v)^n = a$. Alors cela contribue le bon $\Delta$ en $a$, et en $a + e_i$ par exemple, les autres $\Delta_j$ sont nuls, donc effacent la contribution. + + Comment diminuer $M(u)$ en un point $a$, où $M(u)(a)\gt 0$ ? On diminue la valeur $u(a)$ : cela diminue $M(u) (a)$, mais cela augmente les $M(u)$ des voisins. Ce n'est pas grave. #+END_proof @@ -4480,13 +4502,18 @@ Soit $f\colon\R^+\ra\R_+^{*}$ de classe $\mc C^1$ telle que $\frac{xf'(x)}{f(x)} #+END_proof -#+begin_exercice [X MP 2024 # 363] :todo: +# ID:8098 +#+begin_exercice [X MP 2024 # 363] - Soient $I$ et $J$ deux segments de $\R$, et $f:I\times J\ra\R$ continue. Montrer l'existence et l'égalité des deux quantites $\int_I\left(\int_Jf(x,y)dy\right)dx$ et $\int_J\left(\int_If(x,y)dx\right)dy$. - Pour $\alpha\in\,]0,1[$ et $f\colon\R\ra\R$ de classe $\mc C^1$ telle que $f^2$ et $f^{' 2}$ sont intégrables sur $\R$, on note $\|f\|_{\alpha}^2=\int_{\R}\left(\int_{\R}\frac{|f(x)-f(y)|^ {2}}{|x-y|^{1+2\alpha}}dy\right)dx$. Montrer que $\|\ \|_{\alpha}$ définit une norme sur l'espace vectoriel $\{f\in\mc C^1(\R,\R),\ (f,f')\in L^2( \R,\R)^2\}$. #+end_exercice #+BEGIN_proof - - - - + - Dériver par rapport à une borne. + - Il suffit de vérifier que l'intégrale est bien définie, alors le produit scalaire associé le sera, et c'est une norme. + + Pour ça on peut prendre $y\geq x$, et découper en $y\in [x, x+1]$ et $y\geq x+1$. Pour $y\geq x+1$, on montrer que $\int_{x+1}^{+\i} \frac{|f(x)-f(y)|^ {2}}{|x-y|^{1+2\alpha}}\dy$ est intégrable par rapport à $x$, en traitant la partie $\frac{|f(x)|^2}{\dots}$ et la partie $\frac{|f(y)|^2}{\dots}$ par Fubini. + + Pour traiter le cas $y\in [x,x+1]$, il faut faire Cauchy-Schwarz et appliquer deux fois Fubini. #+END_proof @@ -5681,6 +5708,13 @@ Soit $E$ un $\R$-espace vectoriel de dimension finie. Trouver les endomorphismes #+begin_exercice [Mines MP 2024 # 516] Soit $A\in\M_n(\R)$ telle que $A^2=0$. Déterminer une condition nécessaire sur $n$ et $A$ pour qu'il existe $B\in\M_n(\R)$ telle que $A=B^2$. #+end_exercice +#+BEGIN_proof +En Jordan, $A$ est constituée de blocs $J_2$. Si les blocs $J_2$ vont +par paires, ce sont des carrés de $J_4(0)$. Si il reste un $J_2$ tout +seul, il faut un $0$ de plus. + +On a $\rg A\leq n/2$. Le seul cas qui ne marche pas est le cas où $\rg A = \frac{n}{2}$ et que $\frac{n}{2}$ est impair. On montre à la main que ce n'est pas possible, en prenant des antécédents de machins. +#+END_proof #+begin_exercice [Mines MP 2024 # 517]