Skip to content

Théorème de Bertrand et mouvement quasi-circulaire dans un potentiel de Yukawa.

Bonjour, nous avons la réponse à ce que vous cherchiez, faites défiler vers le bas et vous la trouverez ci-dessous.

Solution :

Ces deux solutions sont incorrectes. Les apsides n'avancent pas d'un angle de mais de
$$
pi Big( frac{r_0}{a} Big)^2
$$

Si l'on regarde dans l'errata officiel de la mécanique de Goldstein, que l'on peut trouver ici, dans la correction faite à la page 129; 1er novembre 2006 :

          Exercise 19b, 2nd line, *** by pi([rho]/a)2 per revolution,...***

Le chiffre de N- N- N- frac{r_0}{a}$ était une faute de frappe dans le livre, mais d'une manière ou d'une autre, les deux solutions ont fini par dériver cette réponse incorrecte. Dans ce post, je vais essayer d'expliquer pourquoi ces deux réponses sont fausses, et je vais essayer de dissiper une partie de la confusion autour de l'équation :
$$
beta^2 = 3 + frac{r}{f} frac{mathrm{d}f}{mathrm{d}r}
$$

que Goldstein a sérieusement placé au milieu de la section 3.6, en prétendant que cela découle d'une simple "expansion en série de Taylor". Dans un autre post, j'expliquerai comment arriver à la solution réellement correcte de <>Subjectif (r_0/a)<>2$..

L'erreur dans la "solution" du professeur Reina est difficile à repérer, mais un peu plus claire, seulement avec du recul. En fin de compte, son objectif est d'approximer la valeur de <>. Pour atteindre ce but, elle commence par approximer $omega^2$ avec un polynôme de Taylor du premier ordre (une expansion linéaire) et en prenant la racine carrée de ce linéaire équation.

Prenez du recul et réfléchissez à ce qui se passe : supposons que l'on approche une fonction... N-mega(x) N- Flèche gauche g(x) = N-sqrt{f(x)}$$omega^2(x) leftrightarrow f(x)$ est une fonction infiniment différentiable définie sur ``mathbb{R}$ avec une série de Taylor convergente. Si l'on développe $f(x)$ à sa série de Taylor du premier ordre :
$$
f(0) + f'(0)x
$$

et substituer dans la racine carrée :
$$
g(x) approx sqrt{f(0) + f'(0)x}
$$

on arrive à, non pas une approximation du premier ordre, mais... une approximation du demi-ordre. En général, une approximation du premier ordre n'est pas géniale ; elle doit être considérée comme le strict minimum de précision pour une approximation, mais une approximation du demi-ordre est inacceptable à des fins numériques.

Si cela n'a toujours aucun sens, essayez de jouer avec cela dans Desmos. Supposons que $f(x) = e^x$ et que nous voulions approximer $g(x) = sqrt{e^x} = e^frac{x}{2}$, on peut essayer l'approximation d'ordre demi, à l'image de ce qu'utilise Reina :
$$
g_0 approx sqrt{1 + x}
$$

et aussi l'expansion de Taylor du premier ordre de $e^{frac{x}{2}}$:
$$
g_1 approx 1 + frac{x}{2}
$$

Comparaison de g(x)$, $g_0(x)$ et $g_1(x)$ dans Desmos :
Illustration de l'approximation de demi-ordre
on voit qu'en effet, $g_0$ (en vert) est une bien pire approximation que $g_1$ (en violet), en fait de près de deux fois l'erreur à une assez "petite". $x$-valeur" de $0.047$. Si nous voulons une approximation au premier ordre de $g(x)$, nous devons ajouter les termes d'ordre supérieur de f(x)$ à l'intérieur de la racine carrée, à savoir que nous avons besoin de l'expansion quadratique d'ordre 2 :
$$
g_2(x) = sqrt{1 + x + frac{x^2}{2}}
$$

Ajout de $g_2$ à notre graphique en vert pointillé, nous voyons que nous obtenons finalement une approximation décente pour $g$:
Illustration du premier ordre environ
On pourrait se demander si $g_2$ est une approximation du second ordre, car elle semble être une meilleure approximation que $g_1$, mais ce n'est pas le cas. Zoom arrière :
Entrez la description de l'image ici
on voit que le $g_2$ devient une ligne pour des valeurs plus élevées de $x$, ce qui indique qu'elle est du premier ordre. Comme mentionné précédemment, notez que $g_0$très diverge rapidement de $g(x)$, par rapport à $g_1$ et $g_2$, et est, en fait, concave vers le bas plutôt que linéaire. Ainsi, on voit pourquoi le schéma d'approximation de Reina échoue numériquement.

D'autre part, nous pouvons également examiner la solution de Slader. En fin de compte, elle échoue pour la raison identique : la solution tente d'approximer... $beta$ en mettant au carré l'expansion du premier ordre de $beta^2$.

En attendant, je peux essayer de dissiper une certaine confusion sur l'équation $beta^2 = 3 + frac{r}{f}frac{mathrm{d}f}{mathrm{d}r}$ et aussi sur le théorème de Bertrand, qui stipule que :

Si une orbite bornée sous une loi de potentiel attractive, sphériquement symétrique et infiniment différentiable. $V(r)$ est toujours fermée et stable, alors $V(r) propto -frac{1}{r}$. ou $V(r) propto r^2$.

Il est clair que le potentiel de Yukawa n'est pas applicable ici car il ne remplit aucune des lois de potentiel. En outre, la solution de Slader n'invoque jamais le théorème de Bertrand (elle le prétend faussement) mais tente plutôt d'imiter l'argument de Goldstein dans la section 3.6 qui démontre une propriété des potentiels à orbite fermée mais ne prétend jamais prouver réellement le théorème de Bertrand lui-même.

La preuve complète peut être trouvée dans l'annexe A de la deuxième édition, mais elle est omise dans la troisième édition. La preuve de Goldstein dans l'appendice de la deuxième édition commence par l'écriture de l'équation de force du second ordre (équation 3.34) et par la définition de la fonction $J(u)$:
$$
frac{mathrm{d}^2 u}{mathrm{d}theta^2} + u = -frac{{m}{l^2}frac{mathrm{d}}{mathrm{d}u} VBig(frac{1}{u}Big) = : J(u)
$$

Maintenant, en gardant à l'esprit que $u := 1/r$, supposons que l'orbite circulaire se produise à $r=r_0 = frac{1}{u_0}$. Lorsqu'une particule se trouve sur une orbite sphérique, $J(u_0) = u_0$; ceci peut être trouvé en fixant d'abord la force centripète égale à l'accélération centripète (ce qui est vrai pour les forces centrales symétriques si et seulement si l'orbite est circulaire) :
$$
f(r_0) = - frac{l^2}{mr_0^3} Longrightarrow frac{1}{r_0} = - frac{m}{l^2}f(r_0)r_0^2
$$

et en réarrangeant la définition de $J$:
$$
begin{align*}
J(u_0) &=-frac{m}{l^2}frac{mathrm{d}}{mathrm{d}u} VBig(frac{1}{u}Big) Bigg|_{u=u_0}
&= -frac{m}{l^2} frac{mathrm{d}V(1/u)}{mathrm{d}(1/u)}frac{mathrm{d}(1/u)}{mathrm{d}u}Bigg|_{u=u_0}
&= frac{m}{l^2}f(r) Big(frac{-1}{u^2}Big)Bigg|_{u=u_0}
&= -frac{m}{l^2}f(r_0)r_0^2 = frac{1}{r_0} = u_0
end{align*}
$$

Considérons maintenant ce qui arrive à cette particule lorsqu'elle est perturbée à une petite distance de... $u_0$ disons à $u$. Dans la preuve complète (infaillible), Goldstein prend la formule troisième ordre expansion de Taylor de J(u)$ autour de $u_0$ (contrairement à l'argument de la section 3.6) et de le brancher dans l'équation ci-dessus :
$$
frac{mathrm{d}^2 u}{mathrm{d}theta^2} + u approx J(u_0) + J'(u_0)(u - u_0) + J''(u_0)frac{(u - u_0)^2}{2} + J'''(u_0)frac{(u - u_0)^3}{6}
$$

Où se trouve la "solution" de Slader et la... $beta^2$ proviennent-elles ? Ni l'une ni l'autre ne sont des approximations très précises : À de très, très petites valeurs proches de $u_0$ l'équation ci-dessus s'approche :
$$
begin{align*}
frac{mathrm{d}^2 u}{mathrm{d}theta^2} + u &Napproximativement u_0 + J'(u_0)(u - u_0) N
Longrightarrow frac{mathrm{d}^2 u}{mathrm{d}theta^2} + (1 - J'(u_0))(u - u_0) &= frac{mathrm{d}^2 (u - u_0)}{mathrm{d}theta^2} + (1 - J'(u_0))(u - u_0) &=0
end{align*}
$$

et si $J'(u_0)$ est supérieur à $1$, alors l'équation différentielle ressemble à celle d'une fonction exponentielle, devenant instable au voisinage de $u_0$ et s'effondre vers l'origine ou s'envole vers l'infini, ce qui contredit la prémisse du théorème de Bertrand (qui exige des orbites circulaires stables). Ainsi, nous pouvons affirmer avec confiance que $1 - J'(u_0) > 0$. et appeler ce terme $beta^2 = 1 - J'(u_0)$.

Goldstein essaie de comprendre ce qui se passe approximativement pour les petites valeurs de $u$ à cette équation en développant $u-u_0$ en une série de Fourier du premier ordre : $u - u_0 = a cos beta theta$. On peut d'abord développer $J'(u_0)$:

$$
begin{align*}
J(u) &= -frac{m}{l^2} frac{partiel V(1 / u)}{partiel u}
&= -frac{m}{l^2} frac{partial V(1 / u)}{partial (1/u)} frac{partial (1/u)}{partial u}
&= -frac{m}{l^2} frac{partial V(r)}{partial (r)} frac{partial (1/u)}{partial u}
&= frac{m}{l^2} fBig(r (= frac{1}{u})Big) Big(frac{-1}{u^2}Big)
Longrightarrow frac{mathrm{d}} J}{mathrm{d}u} &= frac{-m}{l^2} Bigg[frac{1}{u^2}frac{mathrm{d}f(1/u)}{mathrm{d}u} - frac{2}{u^3} f(1/u) Bigg]
&= -frac{m}{l^2u^2}frac{mathrm{d}f(1/u)}{mathrm{d}u} - frac{2m}{l^2u^3}frac{mathrm{d}V(1/u)}{mathrm{d}(1/u)}
&=-frac{m}{l^2u^2}frac{mathrm{d}f(1/u)}{mathrm{d}u} - frac{2m}{l^2u^3}frac{mathrm{d}V(1/u)}{mathrm{d}u}frac{mathrm{d}u}{mathrm{d}(1/u)}
&=-frac{m}{l^2u^2}frac{mathrm{d}f(1/u)}{mathrm{d}u} - frac{2m}{l^2u^3}frac{mathrm{d}V(1/u)}{mathrm{d}u}frac{mathrm{d}(1/r)}{mathrm{d}r}
&=-frac{m}{l^2u^2}frac{mathrm{d}f(1/u)}{mathrm{d}u} - frac{2m}{l^2u^3}frac{mathrm{d}V(1/u)}{mathrm{d}u}Big(frac{-1}{r^2}Big)
&=-frac{m}{l^2u^2}frac{mathrm{d}f(1/u)}{mathrm{d}u} - frac{2m}{l^2u^3}frac{mathrm{d}V(1/u)}{mathrm{d}u}(-u^2)
&=-frac{m}{l^2u^2}frac{mathrm{d}f(1/u)}{mathrm{d}u} + frac{2m}{l^2u}frac{mathrm{d}V(1/u)}{mathrm{d}u}
&=-frac{m}{l^2u^2}frac{mathrm{d}f(1/u)}{mathrm{d}u} - frac{2J(u)}{u}
end{align*}
$$

Quand on introduit l'équation ci-dessus dans $beta^2$ on devrait arriver à :
$$
begin{align*}
beta^2 &= 1 - J'(u_0)
&= 1 + 2 frac{J(u_0)}{u_0} + frac{m}{l^2u^2} frac{mathrm{d}f(1/u)}{mathrm{d}u} Bigg|_{u = u_0}
&= 1 + 2 frac{J(u_0)}{u_0} + frac{m}{l^2u^2} frac{mathrm{d}f(1/u)}{mathrm{d}(1/u)}frac{mathrm{d}(1/u)}{mathrm{d}u} Bigg|_{u = u_0}
&= 1 + 2 frac{J(u_0)}{u_0} + frac{m}{l^2u^2}frac{mathrm{d}f(1/u)}{mathrm{d}(1/u)}frac{-1}{u^2} Bigg|_{u = u_0}\N
f(r_0) = frac{-l^2}{mr_0^3} &Longrightarrow f(1/u_0)= frac{-l^2}{m}u_0^3 Longrightarrow frac{1}{f(1/u_0)} = frac{-m}{l^2u_0^3}
Longrightarrow beta^2 &=1 + 2 frac{J(u_0)}{u_0} + Big(frac{-u}{f(1/u)}Big)frac{mathrm{d}f(1/u)}{mathrm{d}(1/u)}frac{-1}{u^2} Bigg|_{u = u_0}\
&=1 + 2 frac{J(u_0)}{u_0} + frac{1}{f(1/u)}frac{mathrm{d}f(1/u)}{mathrm{d}(1/u)}frac{1}{u} Bigg|_{u = u_0}
&=1 + 2 frac{J(u_0)}{u_0} + frac{1}{f(r)}frac{mathrm{d}f(r)}{mathrm{d}(r)}r Bigg|_{r = r_0}
&= 1 + 2 frac{J(u_0)}{u_0} + frac{r}{f}frac{mathrm{d}f}{mathrm{d}r}Bigg|_{r=r_0}
end{align*}
$$

Rappelons que $J(u_0) = u_0$ Cette équation devient alors :
$$
beta^2 = 3 + frac{r}{f}frac{mathrm{d} f}{mathrm{d} r}
$$

qui est une équation différentielle (qui devrait sembler familière à quiconque s'y connaît en microéconomie : CES utilités, $mathrm{d} ln f / mathrm{d} ln r$ est parfois appelé l'élasticité et) qui a une solution d'une loi de puissance, avec $f(r) = - frac{k}{r^{3 - beta^2}}$.

C'est tout ! Goldstein ne prouve pas le théorème de Bertrand ici. Il se contente d'argumenter, à partir de cette approximation de demi-ordre, que la solution doit être une loi de puissance et que la puissance doit être un nombre rationnel supérieur à... $-3$ (pour savoir pourquoi "rationnel", pensez à l'époque où $cos(beta theta)$ peut aboutir à une orbite fermée).

Ce que la solution de Slader fait alors est d'approximer l'orbite circulaire en utilisant cette équation. Elle développe $frac{r}{f}frac{mathrm{d} f}{mathrm{d}r}$ au premier ordre, après avoir commis une erreur dans la loi de force (que vous signalez). Remarquez que la solution de Slader est également approximative $beta$ à partir de $beta^2$ en prenant le premier ordre d'ordre 1 de $beta^2$, nous donnant finalement une approximation de demi-ordre (déjà vu ?).

Enfin, pour prouver réellement le théorème de Bertrand, on... ne peut pas simplement laisser tomber les termes de deuxième et troisième ordre dans le polynôme de Taylor ; ils doivent être pris en compte. En outre, on doit développer $u - u_0$ à une série de Fourier d'ordre supérieur : $u - u_0 = c_1 cos (betatheta) + c_2 cos(2beta theta) + c_3 cos (3 beta theta)$. Pour des raisons de bon sens, écrivez x:= u- u_0$. Si on développe l'équation différentielle ci-dessus :
$$
frac{mathrm{d}^2 x}{mathrm{d}theta^2} + beta^2x approx J''(u_0)frac{x^2}{2} + J'''(u_0)frac{x^3}{6}
$$

mais gardez à l'esprit que nous savons déjà que la loi de force doit être une loi de puissance avec... $n > -3$ donc nous écrivons $f(r) = frac{-k}{r^{3 - beta^2}}$. Nous pouvons traduire cela par $J$ pour trouver :
$$
J(u) = frac{mk}{l^2}u^{1 - beta^2}
$$

Si l'on développe l'équation différentielle et que l'on rassemble les termes similaires sur cette approximation très précise, on devrait trouver que
$$
beta^2(1 - beta^2)(4 - beta^2) = 0
$$

Dans l'autre post, j'ai expliqué pourquoi les deux solutions sont toutes deux fausses. Ici, j'essaie de dériver la réponse correcte de :
$$
piBig(frac{r_0}{a}Big)^2
$$

Pour arriver à la réponse réellement correcte, nous trouvons d'abord la condition pour avoir une orbite circulaire. Pour accomplir cette fin, nous utilisons exactement la loi de force que vous soulignez :
$$
f(r) = -frac{k}{r^2}e^{-frac{r}a} - frac{k}{ra}e^{-frac{r}{a}}
$$

Lorsque les orbites sont circulaires, l'accélération centripète multipliée par la masse est égale à la force, soit :
$$
begin{align*}
-frac{k}{r_0^2}e^{-frac{r_0}{a}} - frac{k}{r_0a}e^{-frac{r_0}{a}} &= -mr_0dot{theta}^2
&=-frac{l^2}{mr_0^3}
end{align*}
$$

$l = mr^2 dot{theta}$. Une orbite est circulaire si et seulement si la condition ci-dessus est remplie. Supposons qu'une telle solution existe pour les valeurs données de. $k$ et $a$ et supposons que cette orbite soit très légèrement perturbée pour $r(t) = r_0 + epsilon(t)$epsilon(t)$ est une fonction qui représente la petite différence entre le rayon de l'orbite circulaire et l'orbite réelle au temps $t$. Elle présente un maximum local à $t = theta = 0$, où par conséquent $frac{mathrm{d}}{mathrm{d}t} epsilon = 0$ et $ epsilon(t=0) > 0$

Essayons d'abord la méthode évidente, les lois de Newton. Comme nous le verrons, cela donne de très mauvais résultats, et nous nous tournerons finalement vers l'intégrale de Jacobi (conservation de l'énergie) à la place. (Donc si vous voulez voir la solution complète, sautez la section suivante, et descendez à celle d'en dessous).


La deuxième loi de Newton nous dit que :
$$
begin{align*}
m cdot a_{mathrm{radial}} &= F_{mathrm{radial}}
mddot{r}-mrdot{theta}^2 &= -frac{k}{r^2}e^{-frac{r}a} - frac{k}{ra}e^{-frac{r}{a}}
m{epsilon''(t)} - frac{l^2}{m(r_0+epsilon(t))^3} &= -frac{k}{(r_0 + epsilon(t))^2}e^{-frac{r_0+epsilon(t)}a} - frac{k}{(r_0 + epsilon(t))a}e^{-frac{r_0 + epsilon(t)}{a}}
end{align*}
$$

A partir de maintenant, pour des raisons de bon sens, nous écrivons epsilon:= epsilon(t)$ et nous factorisons également $r_0$ de chaque dénominateur :
$$
begin{align*}
mddot{epsilon} - frac{l^2}{mr_0^3(1+frac{epsilon}{r_0})^3} &= -frac{k}{r_0^2(1 +frac{epsilon}{r_0})^2}e^{- frac{r_0+epsilon}a} - frac{k}{ar_0(1 + frac{epsilon}{r_0})}e^{-frac{r_0 + epsilon}{a}}
end{align*}
$$

Ensuite, nous substituons la condition d'orbite circulaire ci-dessus dans la LHS, où nous trouvons :
$$
begin{align*}
mddot{epsilon} + Big(-frac{k}{r_0^2}e^{-frac{r_0}{a}} - frac{k}{r_0a}e^{-frac{r_0}{a}Big)frac{1}{(1+frac{epsilon}{r_0})^3} &= - frac{k}{r_0^2(1 + frac{epsilon}{r_0})^2}e^{-frac{r_0+epsilon}a} - frac{k}{ar_0(1 + frac{epsilon}{r_0})}e^{-frac{r_0 + epsilon}{a}}
&= -ke^{-frac{r_0}{a}}Big(frac{e^{-frac{epsilon}a}}{r_0^2(1 + frac{epsilon}{r_0})^2} + frac{e^{-frac{epsilon}a}{ar_0(1 + frac{epsilon}{r_0})}Big)
end{align*}
$$

Maintenant, développez cette expression en utilisant l'approximation binomiale, en évitant l'erreur que fait Reina ; parce que nous avons l'intention de mettre au carré notre approximation en aval, nous devons tout développer au second ordre :
$$
begin{align*}
mddot{epsilon} &+ Big(-frac{k}{r_0^2}e^{-frac{r_0}{a}} - frac{k}{r_0a}e^{-frac{r_0}{a}}Big)(1 - 3 frac{epsilon}{r_0} + 6frac{epsilon^2}{r_0^2})
&= -ke^{-frac{r_0}{a}}Big(frac{e^{-frac{epsilon}a}}{r_0^2}{(1 - 2frac{epsilon}{r_0} + 3frac{epsilon^2})} + frac{e^{-frac{epsilon}a}{ar_0}{(1 - frac{epsilon}{r_0}+ frac{epsilon^2}{r_0^2})}Big)
end{align*}
$$

Et développez $e^{-frac{epsilon}{a}} approx 1 - frac{epsilon}{a} + frac{1}{2} frac{epsilon^2}{a^2}$ et remplacez-la par l'équation ci-dessus. Ensuite, développez soigneusement, et laissez tomber tous les termes de mathcal{O}(epsilon^3)$ et plus. Quand tout est dit et puis, le résultat devrait être :
$$
begin{align*}
0 &= m ddot{epsilon}
&+ frac{k}{r_0^2}e^{frac{-r_0}{a}}(frac{3 epsilon}{r_0} - frac{epsilon}{a} + frac{1}{2}frac{epsilon^2}{a^2} + 2 frac{epsilon^2}{r_0a} - 3frac{epsilon^2}{r_0^2})
&+ frac{k}{ar_0}e^frac{-r_0}{a}(frac{3epsilon}{r_0} - frac{epsilon}{a} + frac{1}{2}frac{epsilon^2}{a^2} + frac{epsilon^2}{r_0a} - 5frac{epsilon^2}{r_0^2})
end{align*}
$$

qui est une équation différentielle ordinaire non linéaire du second ordre dont la solution complète ne peut être exprimée qu'en termes de série hypergéométrique. On peut tenter de s'en approcher en développant $epsilon$ en une série de Fourier du second ordre : $epsilon(t) approx a_1 cosbeta t + a_2 cos 2beta t$ et en le substituant dans l'équation, et en mettant en équation les deux côtés de l'eq diff. Cela peut vous indiquer la fréquence de $epsilon$ par l'oscillation de $beta$. Je recommande fortement contre de faire cela, car cela va clairement devenir très désordonné, très rapidement.


Au lieu de cela, en cas de doute, essayez toujours aussi la conservation de l'énergie. Ici, cette équation est :
$$
E = frac{m}{2}v^2 - frac{k}{r}e^{-frac{r}{a}}
$$

Rappelons que la vitesse peut être divisée en deux composantes, radiale et orthogonale : $vec{v} = dot{r}hat{r} + rdot{theta}hat{theta}$. Donc, nous obtenons que $v^2 = dot{{r}^2 + r^2dot{theta}^2$. Une fois de plus, on développe $r = r_0 + epsilon$ et substituez les deux dans l'équation de l'énergie pour trouver :
$$
begin{align*}
E &= frac{m}{2}dot{epsilon}^2 + frac{m}{2}(r_0 + epsilon)^2dot{theta}^2 - frac{k}{r_0 + epsilon} e^{-{frac{r_0 + epsilon}{a}}
&= frac{m}{2}dot{epsilon}^2 + frac{m^2(r_0 + epsilon)^4dot{theta}^2 }{2m(r_0+epsilon)^2}- frac{k}{r_0 + epsilon} e^{-frac{r_0 + epsilon}{a}}
&= frac{m}{2}dot{epsilon}^2 + frac{l^2}{2m(r_0+epsilon)^2} - frac{k}{r_0 + epsilon} e^{-frac{r_0 + epsilon}{a}
&= frac{m}{2}dot{epsilon}^2 + frac{l^2}{2mr_0^2(1+frac{epsilon}{r_0})^2} - frac{ke^{frac{-r_0}{a}}{r_0(1 + frac{epsilon}{a})} e^{-frac{epsilon}{a}}
&= frac{m}{2}dot{epsilon}^2 + frac{1}{2}frac{l^2r_0}{mr_0^3(1+frac{epsilon}{r_0})^2} - frac{ke^{frac{-r_0}{a}}{r_0(1 + frac{epsilon}{a})} e^{-frac{epsilon}{a}}
end{align*}
$$

Encore une fois, substituez la condition de circularité :
$$
begin{align*}
E
&= frac{m}{2}dot{epsilon}^2 + frac{1}{2}Bigg[frac{k}{r_0^2}e^{-frac{r_0}{a}} + frac{k}{r_0a}e^{-frac{r_0}{a}}Bigg]frac{r_0}{(1+frac{epsilon}{r_0})^2} - frac{ke^{frac{-r_0}{a}}{r_0(1 + frac{epsilon}{a})} e^{-frac{epsilon}{a}}
end{align*}
$$

Et comme précédemment, en évitant l'erreur que fait Reina, puisque nous avons l'intention de quadriller plus tard notre approximation, développez le binôme et la série de Taylor au second ordre :
$$
begin{align*}
E
&= frac{m}{2}dot{epsilon}^2 + frac{1}{2}Bigg[frac{k}{r_0^2}e^{-frac{r_0}{a}} + frac{k}{r_0a}e^{-frac{r_0}{a}}Bigg]{r_0}{(1-2frac{epsilon}{r_0}+3frac{epsilon^2}{r_0^2}) } - frac{ke^{frac{-r_0}{a}}{r_0}(1 - frac{epsilon}{a}+ frac{epsilon^2}{a^2}) (1 - frac{epsilon}{a} + frac{epsilon^2}{2a^2})
end{align*}
$$

Soigneusement, comme dans très soigneusement, comme dans (faire-cela-deux-fois-sur-deux-différentes-feuilles-de-papier-et-vérifier-vos-résultats)-le-niveau de soigneusement, développez cette expression et laissez tomber tous les termes de l'ordre et supérieur. Vous devriez alors obtenir :
$$
begin{align*}
E &= frac{mdot{epsilon}^2}{2} + ke^{-frac{r_0}{a}}bigg[frac{1}{2}frac{1}{r_0} - frac{epsilon}{r_0^2} + frac{3}{2}frac{epsilon^2}{r_0^3} + frac{1}{2}frac{1}{a} - frac{epsilon}{r_0a} + frac{3}{2}frac{epsilon^2}{ar_0^2}bigg]
&+ ke^{-frac{r_0}{a}}bigg[-frac{1}{r_0} + frac{epsilon}{r_0^2} - frac{epsilon^2}{r_0^3} + frac{epsilon}{r_0a} - frac{epsilon^2}{r_0^2a} - frac{1}{2}frac{epsilon^2}{r_0a^2}bigg]
end{align*}
$$

Notez que tous les termes avec juste $epsilon$ s'annulent dans l'expression ci-dessus, et il ne nous reste que des quadratiques ($epsilon^2$) et des constantes :
$$
begin{align*}
E &= frac{mdot{epsilon}^2}{2} + ke^{-frac{r_0}{a}}bigg[frac{1}{2}frac{epsilon^2}{r_0^3} + frac{1}{2}frac{epsilon^2}{ar_0^2} - frac{1}{2}frac{epsilon^2}{r_0a^2}bigg]
&+ ke^{-frac{r_0}{a}}bigg[frac{1}{2}frac{1}{a} - frac{1}{2}frac{1}{r_0}bigg]
end{align*}
$$

Appelons le dernier terme de l'ERS $C$ car il est constant, et le soustraire des deux côtés, en définissant ainsi $E^* = E - C$:
$$
begin{align*}
E^* = E - C &= frac{mdot{epsilon}^2}{2} + ke^{-frac{r_0}{a}}bigg[frac{1}{r_0^3} + frac{1}{ar_0^2} - frac{1}{r_0a^2}bigg]frac{epsilon^2}{2}
&= frac{mdot{epsilon}^2}{2} + frac{Kepsilon^2}{2}
end{align*}
$$

$K$ est le gros coefficient devant le second terme. Observez que c'est l'équation de l'énergie pour un simple oscillateur harmonique. Vous avez noté ici que vous aviez quelques difficultés à comprendre comment trouver l'avance de l'apside à partir de la fréquence. Je vous recommande plutôt de penser à cela en termes de période, qui est donnée pour le SHO correspondant à . $epsilon$ par :
$$
T_mathrm{pert} = 2 pi sqrt{frac{m}{K}} = 2 pi sqrt{frac{m}{ke^{-frac{r_0}{a}}bigg[frac{1}{r_0^3} + frac{1}{ar_0^2} - frac{1}{r_0a^2}bigg]}}
$$

D'autre part, la période de l'orbite peut être trouvée par $frac{2pi}{dot{theta}}$. On peut extraire $dot{theta}$ de la condition de circularité :
$$
begin{align*}
mr_0dot{theta}^2&= frac{k}{r_0^2}e^{-frac{r_0}{a}} + frac{k}{r_0}a}e^{-frac{r_0}{a}} = ke^{-frac{r_0}{a}}bigg[frac{1}{r_0^2} + frac{1}{r_0a}bigg]
Longrightarrow dot{theta} &=sqrt{frac{ke^{-frac{r_0}{a}}bigg[frac{1}{r_0^3} + frac{1}{r_0^2a}bigg]}{m}}
Longrow T_{mathrm{orbit} &= 2 pi sqrt{frac{m}{ke^{-frac{r_0}{a}}bigg[frac{1}{r_0^3} + frac{1}{r_0^2a}bigg]}}
end{align*}
$$

Juste en regardant les équations, nous pouvons dire que T_{mathrm{c}} $T_{mathrm{c}} > T_{mathrm{orbit}}$ car le dénominateur de la première est inférieur à celui de la seconde.

Réfléchissons à une analogie pour cette situation : s'il faut à Bob... $T_B = 5$ minutes pour peindre un mur et qu'Alice $T_A = 3$ minutes, et si elles commencent en même temps, et peignent continuellement autant de murs qu'elles le peuvent, lorsque la personne la plus lente (Bob) a terminé son premier mur, combien de... supplémentaires murs supplémentaires Alice a-t-elle terminé ? De toute évidence, son
$$
frac{2}{3} mathrm{walls} = frac{5 mathrm{min} - 3 mathrm{min}}{3min} = frac{T_B - T_A}{T_A} = frac{T_B}{T_A} - 1
$$

Ceci est juste vrai en général. Ici, la perturbation est comme Bob, elle est plus lente que le mouvement orbital, Alice. Par conséquent, le nombre de perturbations supplémentaires (plus de $1$) cycles que l'orbite a effectué au moment où la perturbation subit son premier cycle est :
$$
begin{align*}
frac{T_{mathrm{pert}}}{T_{mathrm{orbit}}} -1 &= sqrt{frac{frac{1}{r_0^3}} + frac{1}{r_0^2a}}{frac{1}{r_0^3} + frac{1}{ar_0^2} - frac{1}{r_0a^2}}} - 1
&= sqrt{frac{1 + frac{r_0}{a}}{1 + frac{r_0}{a} - frac{r_0^2}{a^2}}} - 1
&= sqrt{frac{1+x}{1+x - x^2}} - 1 (mathrm{où} x := frac{r_0}{a})
&=sqrt{frac{1+x-x^2}{1+x-x^2} + frac{x^2}{1+x-x^2}} - 1
&= sqrt{1 + frac{x^2}{1 + x - x^2}} - 1
&approx1 + frac{1}{2}bigg(frac{x^2}{1 + x - x^2}bigg) - 1
&=frac{1}{2}x^2bigg(frac{1}{1+(x - x^2)}bigg)
&= frac{1}{2}x^2(1 - (x-x^2) + mathcal{O}((x-x^2)^2))
&= frac{1}{2}x^2 + mathcal{O}(x^3) = frac{1}{2}frac{r_0^2}{a^2} + mathcal{O}(x^3)
end{align*}
$$

Abandon de tous les termes d'ordre élevé. $mathcal{O}(x^3)$, nous constatons que l'orbite a subi une modification supplémentaire $frac{1}{2}frac{r_0^2}{a^2}$ cycles ou que nous sommes maintenant :
$$
2 pi cdot frac{1}{2}frac{r_0^2}{a^2} = pibig(frac{r_0}{a}big)^2
$$

radians dans le deuxième cycle de l'orbite. Ainsi, le pic de distance par rapport à l'origine (qui se produit évidemment quand a subi un cycle complet) est $pi(frac{r_0}{a})^2$ du chemin de l'orbite, comme souhaité.


Addendum : Pour répondre à la question de @YamanSanghavi. Il y a deux prémisses nécessaires pour la solution ci-dessus :

  1. Orbites circulaires
  2. Stabilité de l'orbite

La première a été trouvée en fixant la force centripète égale à la masse multipliée par l'accélération centripète :
$$
underbrace{-frac{l^2}{m} + kre^{-frac{r}{a}} + frac{kr^2}{a}e^{-frac{r}{a}}_{text{i}les deux côtés multipliés par }r^3} = 0
$$

Ce dernier point est équivalent à la définition positive du potentiel effectif ; s'il est défini positivement, le potentiel ressemble à une parabole orientée vers le haut près du minimum local, et ainsi, la stabilité est atteinte. Ici , $V_{{mathrm{eff}}$ peut être trouvé via l'intégrale de Jacobi :
$$
begin{align*}
frac{mdot{r}^2}{2} &+ {frac{mr^2dot{theta}^2}{2} - frac{k}{r}e^{-frac{r}{a}} = E
frac{mdot{r}^2}{2} &+ contrepoint{frac{l^2}{2mr^2} - frac{k}{r}e^{-frac{r}{a}}_{text{ potentiel effectif}} = E
end{align*}
$$

Son caractère positif-définitif peut être examiné en prenant la dérivée seconde par rapport à $r$:
$$
frac{mathrm{d}^2V_{mathrm{eff}}}{mathrm{d}r^2} = frac{3l^2}{mr^4} - frac{2ke^{-frac{r}{a}}}{r^3} - frac{2ke^{-frac{r}{a}}{ar^2} - frac{ke^{-frac{r}{a}}{a^2r}
$$

Substituer $l^2$ de la condition de circularité précédente dans la dérivée seconde. L'expansion de l'expression de la dérivée seconde doit donner :
$$
{r^3e^{frac{r}{a}}frac{mathrm{d}^2V_{mathrm{eff}}{mathrm{d}r^2} = k + kfrac{r}{a} - kfrac{r^2}{a^2}
$$

En traitant l'ERS comme une fonction de $frac{r}{a}$, on voit que c'est l'expression d'une parabole orientée vers le bas. La somme de ses racines est positive mais leur produit est négatif, via les formules de Vieta. Essayez de tracer le graphique d'une telle expression pour voir que le produit de la parabole n'est positif que dans le cas où . $frac{r}{a}$. est inférieur à la racine supérieure de la fonction. On trouve cette racine via la formule du quadratique :

$$
frac{r}{a} < frac{-1 + sqrt{5}}{2} $$

ce qui constitue une borne supérieure suffisamment serrée sur $x$ à toutes fins utiles.

N'oubliez pas que vous avez la permission d'expliquer si cela vous a été utile.



Utilisez notre moteur de recherche

Ricerca
Generic filters

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.