Sommaire
Sommaire
Suivant


Du signal
à
l'équation du monde

Le signal


1. Introduction

Une discution sur la génèse du monde, évidement incomplète, ou comment trouver un cheminement conceptuel simple passant par des étapes intermédiaires et aboutissant aux équations du monde en vogue actuellement. Un parallèle entre la didactique et le mythe, sur l'intelligibilité du monde en procédant à des analogies que seuls portent les rêves capables de mettre à égalité tous les égos et de transcender toutes les frontières. Un ordonnancement de nos connaissances en un fil conducteur, en une chaine causale où chaque principe découle de source. Une reformulation des fondements de la physique à la lumière des connaissances d'aujourd'hui dans un esprit ouvert qui se veut démocratique.

On y discute des mathématiques, de leurs rôles dans la conception du monde intelligible et de la forme des équations physiques qui doivent être homogènes, comprenant plusieurs espèces ou dimensions, conceptualisant des espaces. On propose différentes conceptions du temps. On présente ce qu'est un signal périodique et sa décomposition en sommes de ses harmoniques, que l'on promeut comme principe de la constance et de l'état d'équilibre. Puis on traite des ondes, de l'échange d'information et de la quantification, pour aboutir aux ondes éléctromagnétiques et aux photons dans le vide, qui, tel le Lapin blanc, nous ouvre un chemin tout tracé aux pays des merveilles, pour y découvrir la relativité générale, les forces électriques, la mécanique, les invariants, les équations de Maxwell-Lorentz, à une, deux, trois, puis quatre dimensions, la relativité restreinte, la notion de repère et les symétries de l'univers, et la mécanique quantique, le tout en une présentation didactique se voulant être capable de se dispenser de connaissance préalable, ordonnançant les concepts en une génèse sans rupture ni à-coups en exposant à chaque étape les principes du paradigme.

2. Mathématiques

Les structures mathématiques on l'air d'exister indépendament du monde, comme si elles pré-existaient, et donnaient alors au monde une contrainte à la fois innée et immanente, car elles semblent bien propre à la nature du monde. Et ce sont les structures mathématiques de corps et d'espace qui vont jouer un rôle prédéterminant dans cette première phase de la génèse que nous explorons par notre intuition.

Mais la nature du monde est assurément plus complexe puisqu'elle doit ce justifier par elle-même dans un processus que nous tentons d'éclairer. Il n'en reste pas moins que les outils mathématiques connus vont nous permettre d'approcher cette complexité. Et on commence par le groupe libre monogène, constituant les entiers relatifs `ZZ`, une construction itérative à partir d'une unité, et qui s'étend en le corps des rationnels `QQ`, puis en le corps des réels `RR`, puis en le corps des complexes `CC`, puis en le corps non-commutatif des quaternions `bbbH`.

Le signal est ce qui porte l'information, tel un message, et l'idée de constance ou d'état d'équilibre se traduit par la répétition du même message indéfiniment. Ce qui nous amène tout naturellement à concevoir comme première étape d'intelligibilité du monde, le concept de signal périodique qui s'écoule à travers le temps.

Cela désigne deux espèces ou dimensions, l'espèce désignant le temps qui est noté `sfT`, et l'espèce désignant la valeur du signal qui est un potentiel et qui est noté `sfP`. Et pour chacune de ces espèces, il convient de définir une unité, ce que fait le système international d'unité, en définissant la seconde notée `"s"` pour le temps, et le volt noté `"V"` pour le potentiel. Ces unités, tels des objets mathématiques, se comportent alors comme des éléments générateurs de structures mathématiques, formant une sorte de squelette révèlant l'intelligibilité du monde physique.

On représente le temps par l'axe `"s"RR`. Une valeur de temps `t` est le produit de l'unité `"s"` par un nombre réel sans unité. On représente le potentiel par l'axe `"V"RR`. Une valeur de signal à un instant `t` est le produit de l'unité `"V"` par un nombre réel sans unité. Le signal évolue en fonction du temps. Il est représenté par une variable d'état fonction de `t` exprimé en seconde, que l'on note `U(t)` et qui est exprimé en volt.

Si on s'est fixé un système d'unité cohérent et que les équations sont bien homogènes, il est alors possible de faire abstraction des unités, puisqu'il est possible de les retrouver, ce qui se fait dans la pratique. Mais dans notre phase de recherche, il est plus judicieux de les introduire de façon formelle comme des éléments mathématiques susceptibles de construire toutes sortes de structure mathématique.

Le choix de `RR` est arbitraire. On a choisit la structure monogène la plus libre, la plus simple et la plus complète par simplicité abstractive dans le but de pouvoir circonscrire la réalité par une structure mathématique plus vaste qu'elle. Et les premières variantes qui seront envisagées remettrons en cause le caractère infini inné de ces structures quelque peu incompatible avec le concept de génèse. Puis la relativité générale perfectionnera ces structures initialement rigides en les déformant.

3. Signal périodique

Un signal périodique quelconque `U(t)` se décompose en la somme infinie de ses harmoniques entiers `0, 1, 2, 3, 4,...` appelée somme des harmoniques ou série de Fourier du célèbre mathématicien français Joseph Fourier (Auxerre 1768 - Paris 1830) :

`U(t) = a_0 + a_1sin(α_1 "+" omega t) + a_2sin(α_2 "+" 2omega t) + ... + a_nsin(α_n "+" n omega t) + ...`  

Un signal est périodique s'il possède une période `T` c'est à dire s'il se répète à l'identique après chaque intervalle de temps `T`. Quelque soit le temps `t` nous avons :

`U(t"+"T)=U(t)`

Un tel signal se décompose en la somme de ses harmoniques.

Chaque harmonique est un signal sinusoïdal caractérisé par une amplitude `a` exprimée en unité de signal, une phase `α` exprimée en radian, et un numéro `n` de l'harmonique déterminant sa fréquence `n"/"T` et donc sa vitesse angulaire `n omega`, ce qui s'écrit par une fonction du temps `t` comme suit :

`asin(α "+" n omegat)`

Chaque harmonique ou composante est ainsi une sinusoïde déterminée par deux nombres que sont son amplitude `a` et sa phase initiale `alpha` que l'on regroupe en un nombre complexe appelé pôle et noté de façon polaire `[a,alpha]`.

La décomposition d'un signal périodique `U(t)` de période `T` en la somme de ses harmoniques s'écrit comme suit :

`U(t) = a_0 + sum_(n=1)^(oo) a_n sin(α_n"+" n omega t)`

`omega=(2pi)/T`

`t` : Temps.
`U(t)` : Valeur du signal `U` à l'instant `t`.
`T` : Période du signal `U`. Quelqe soit `t`, nous avons : `U(t"+"T)"="U(t)`.
`1"/"T`
: Fréquence de l'harmonique fondamental.
`omega`
: Vitesse angulaire de l'harmonique fondamental exprimée en radian par unité de temps.
`n`
: Numéro de l'harmonique.

`a_0` : Composante continue.
`a_1sin(α_1 "+" omegat)`
: Harmonique `1`, harmonique fondamental de vitesse angulaire `omega`.
`a_2 sin(α_2"+" 2omega t)`
: Harmonique `2` de vitesse angulaire `2omega`.
`a_n sin(α_n"+" n omega t)` : Harmonique `n` de vitesse angulaire `n omega`.

`a_1`
: Amplitude du premier harmonique.
`α_1`
: Phase du premier harmonique exprimée en radian.
`a_n`
: Amplitude du `n`-ième harmonique.
`α_n`
: Phase du `n`-ième harmonique exprimée en radian.
`[a_n, alpha_n]` : Pôle du `n`-ième harmonique.

Dans la nature, le signal électromagnétique se manifeste sous forme de photon et pour chaque fréquence `nu` le photon possède une énergie `hnu`. Ainsi, si l'on se restreint à un intervalle de fréquence correspondant à notre échelle de temps et à notre champ de vision, il ne peut y avoir qu'un nombre fini de photons et donc qu'un nombre fini de sinusoïdes.

C'est en constatant que la somme de deux signaux sinusoïdaux de même fréquence produit un signal sinusoïdal de même fréquence, et que toute décomposition d'un signal périodique de période `T` en une somme finie de signaux sinusoïdaux ne comprend nécessairement que des signaux sinusoïdaux dont la période est une division entière de `T`, c'est à dire dont la fréquence est un multiple de `1"/"T`, que l'on démontre la forme de cette décomposition, en somme des `N` premiers harmoniques, pour tous tels signaux de période `T` ne possédant pas de composante de fréquence supérieure à `N"/"T`.

4. Les dimensions

Cette nouvelle espèce qu'est la valeur du signal, appelé aussi champ, ou potentiel, n'est pas à proprement parler une dimension, ou en tout cas, pas encore. Elle possède un état d'équilibre à zéro, qui représente une sorte d'énergie nulle avant même de concevoir ce qu'est l'énergie. C'est pourquoi, on ne considère pour l'instant que des signaux centrée autour de zéro, c'est à dire avec `a_0=0`. Ainsi, au premier jour il n'y a pas de composante de champ continue.

La génèse ne s'accomode pas avec l'infini qui reste toujours qualifié d'inné ou de potentiel donc d'inachevé. Or, chaque étape de la génèse doit constituer un tout cohérent liant l'infiniment petit à l'infiniment grand. Un moyen de contourner cette difficulté est de relier les deux bouts du temps..., de considérer un temps cyclique, qui tourne en rond, répétant indéfiniment tout ce qui se déroule en un cycle monde.

Dans une telle hypothèse, un principe de justice immanente doit permuter les âmes pour que ce ne soit pas toujours les mêmes âmes qui vivent les bonheurs et les malheurs des destinées figées dans le temps. Puis on ne peut concevoir quelque chose qui soit indéfiniement répétitif, ce serait un non-sens qui supprimerait la justification de l'existant.

Et à chaque cycle de temps, le cycle s'agrandit, et les destinées changent. Le signal `U(t)` devient fonction d'un second paramètre temporelle qui est le nombre de cycles `U(n,t)`. Et la même problématique se repose avec ce second paramètre. À part que les lois du monde que nous recherchons ne s'appliquent que localement dans un cycle, pouvant lier l'infiniment grand représantant le cycle, à l'infiniement petit représentant la plus petite information circulant dans l'univers tout en restant dans un même cycle.

Quelque soit l'option choisie, en dehors de l'infiniment petit et de l'infiniment grand apparait un domaine dit classique où les lois de Galilée et de Newton sont observées, et qui mettent en exergue un principe d'égalité des subjectivités, et donc un principe de relativité des observateurs et des repères. Et il se décline, même à ce stade où il n'y a que le temps comme espace. L'instant `t"="0"s"` n'a rien de particulier. L'instant `t"="0"s"` est l'instant zéro pour un observateur. Et cet observateur constitue ce que l'on appelle un repère.

Pour la dimension du potentiel, il n'en est pas ainsi car le potentiel zéro joue un rôle particulier, une sorte de barycentre.

5. Théorème de l'échantillonnage

Le théorème de l'échantillonnage est découvert en 1927 par Harry Nyquist (1889 Suède - 1976 Texas), ingénieur suédois, et est démontrée mathématiquement en 1949 par Claude Shannon (1916 Petoskey, Michigan - 2001 Medford, Massachusetts), ingénieur et mathématicien américain.

Un signal ne contenant pas de fréquence supérieure à `f` peut être échantillonné à la fréquence `2f` sans qu'il n'y ait aucune perte d'information.

La plus petite fréquence `f` telle que toutes les composantes du signal de fréquence supérieure ou égale sont nulles, s'appelle la fréquence de Nyquist. L'échantillonnage peut se faire à une fréquence `2f` sans qu'il n'y ait aucune perte d'information. Le signal est échantillonné avec un pas de temps `dt = 1"/"(2f)` qui peut alors constituer un quanta de temps. Le signal est échantillonnée en `K` valeurs de temps :

`0,1/(2f),2/(2f),3/(2f),...,(K-1)/(2f)`

Donc le signal avec sa composante continue, est déterminé par `K` paramètres réels que sont la valeur du signal à ces différents instants. Et le signal dure `T=K"/"(2f)` car chaque échantillon est pris au centre d'un intervalle de temps de `1"/"(2f)`.

Tous se passe comme si le signal commençait à l'instant `0 -1/2"·"1/(2f)` et se terminait à l'instant `(K-1)/(2f) + 1/2"·"1/(2f)`

C'est à dire de l'instant `-1/(4f)` à l'instant `K/(2f) - 1/(4f)`

Celui-ci peut être analysé en le répétant et en le transformant en signal périodique de période `T`. Mais il faut noter que cette coupure du signale au bout de l'instant `T` ainsi que sa répétition va modifier les valeurs du signal principalement sur les bords, et correspondra à une quantification des fréquences du signale sur un pas de fréquence de `1"/"T`.

Dans le cas où le signal est transmis en modulant une fréquence porteuse (cas de la radio), la démodulation qui consiste à enlever la fréquence porteuse, restituera le signal intégralement à condition que la fréquence maximale du signal ne dépasse pas la moitié de celle de la porteuse.

Dans le cas général et d'un point de vue mathématique, les échantillons n'ont pas besoin d'être régulièrement espacés et l'absence de basse fréquence réduit encore le nombre d'échantillons nécessaires :

L’échantillonnage d'un signal exige un nombre d'échantillons par unité de temps supérieur au double de l'écart entre les fréquences minimale et maximale qu'il contient.

Lorsque le signal est périodique, de période `T`, on obtient une seconde description du signal sans perte d'information qui est donnée par son spectre nativement échantillonné avec un pas de fréquence `dnu = 1"/"T` constituant un quanta de fréquence. Le signal se décompose en la sommes de ses harmoniques. Les fréquence sont des multiples de la fréquence de l'harmonique fondamentale qui est égale à l'inverse de la période `1"/"T`, et qui est la fréquence la plus basse présente dans le signal.

Chaque harmonique possède une fréquence qui est un multiple entier de la fréquence fondamentale `1"/"T`, jusqu'à une valeur `f` égale à la fréquence de Nyquist qui est la première composante de fréquence à partir de la quelle toutes les composantes de fréquence supérieure ou égale sont nulles.

Dans notre approche fondamentale, nous considérons la borne de fréquence juste inférieur à la fréquence de Nyquist, qu'est la fréquence la plus élevée des photons en présence, et que nous appelons `f_"max"=f-df`, où `df` désigne une valeur infiniment petite. Donc, dans les faits, c'est la même fréquence, à part qu'il faut ajouter aux `K` paramètres réels constituant l'échantillonnage du signal, de nouveaux paramètres pour déterminer la sinusoïde de fréquence `f` en question. Il faut connaitre l'amplitude ou la phase initiale de cette composante, car si on fixe l'un, l'échantillonnage du signal permet de déterminer l'autre. Ainsi, le signal avec sa composante continue, est déterminé par `K"+"1` paramètres réels que sont la valeur du signal sur les `K` échantillons auxquels on joute un paramètre, l'amplitude où la phase initiale de la sinusoïde de fréquence `f`.

Puis on passe de l'échantillonnage du signal à l'échantillonnage du spectre du signal. Le spectre du signal est échantillonnée nativement en `N` composantes de fréquence, chacune comprenant une amplitude et une phase initiale, et on enlève la composante continue :

`1/T,2/T, 3/T,..., N/T`    avec    `N/T=f`

Donc le spectre du signal est déterminé par `2N` paramètres réels. Et il faut ajouter un paramètre réel supplémentaire pour déterminer la composante continue. Ainsi le signal avec sa composante continue, est déterminée par `2N"+"1` paramètres réels que sont l'amplitude et la phase initiale des `N` composantes de fréquence auxquels on ajoute le paramètre déterminant la composante continue.

Comme `T=K"/"(2f)` on a `2N=K`. On en conclut que le signal est déterminé par le même nombre de paramètres réels dans l'échantillonnage en volume que dans l'échantillonnage en fréquence.

5.1. Symétrie

On verra dans la partie suivante que le spectre d'un signal réel périodique possède une symétrie : Quelque soit l'entier `n` compis entre `1` et `N-1`, les composantes de période `n"/"T` et `(N-n)"/"T` c'est à dire les composantes de fréquence `(n"/"N) f` et `((N-n)"/"N) f` ont même amplitude et ont une phase opposée :

`AA n in {1 ".." N-1},`

`a_("("N-n")")=a_n`
`alpha_("("N-n")") = -alpha_n`

Les signaux réels périodiques n'ont donc besoin que de la moitier de l'ensemble des paramètres réels décrit précédement pour être déterminées.

6. Première approche de l'incertitude

Qu'est-ce qu'un invariant ? Dans un monde d'apparence cahotique, l'invariant est ce qui perdure à travers le temps. C'est dans l'ordre de simplicité : la constante, puis ce qui réapparait périodiquement, puis de ce qui réapparait selon une loi invariante, et c'est alors la loi qui est constante. La recherche des invariants est à la base de la psychogénèse et des sciences en générale.

Imaginons qu'un signal non-périodique contienne une composante de fréquence `f` inconnue. On écoute le signal pendant un temps `T` et on essaye de découvrir `f` à partir de cet extrait. On a donc coupé le signal et perdu de l'information. Si le signal dure qu'un temps `T`, alors il n'est pas périodique.

Il existe plusieurs façons empirique de le rendre périodique. La première façon la plus simple consiste à répéter le signal. La seconde façon consiste à répéter l'opposé du signal. La troisième façon consiste à répéter le signal en inversant le sens du temps, et la quatrième façon consiste à répéter l'opposé du signal en inversant le sens du temps. Ces constructions s'apparentent à des effets de miroirs. Le signal résultant doit être analytique. L'équation d'un choc n'est pas analytique, pour le rendre analytique, on détaille le choc en une interaction progressive et analytique. Ici on fait la même chose en enlevant les fréquences trops élevée par un échantillonnage des fréquences.

L'harmonique correspondant à la fréquence `f` inconnue aura comme fréquence le multiple entier de `1"/"T` le plus proche de `f`.

Plus la durée `T` de la mesure est grande, plus la fréquence mesurée de la composante recherchée sera précise. Et on constate une incertitude sur la fréquence détectée, qui est due au faite que l'on a tronqué le signal au bout d'un temps `T`, qui est égale au pas de fréquence `1"/"T`

`f = n/T ± 1/(2T)`

On représente cette incertitude par le pas différentiel ou le quanta de fréquence `df=1"/"T`. Ce n'est pas une différentielle au sens mathématique mais une indetermination qui découle d'une quantification des fréquences avec un quanta de fréquence de `1"/"T`.

La génèse ne s'accomode pas avec l'hypothèse d'une quantité d'information infinie. Celle-ci doit être finie. Sinon tout est dans tout, et le monde sans frontière est un chaos indescriptible.

Le théorème de l'échantillonnage va dans ce sens mais il n'est pas suffisant pour pouvoir quantifier l'information. Car la valeur du signal est un nombre réel multiplié par l'unité de signal, et un nombre réel transporte une quantité d'information infini. Dans la pratique, pour mesurer ce nombre réel avec une précision d'autant plus grande, on est contraint de démultiplier le système autant de fois, de procéder à des expériences en parallèles identiques en un nombre d'autant plus grand.

Il doit donc exister un principe d'incertitude qui réduit cette infinité informationnelle. C'est le principe d'incertitude d'Heisenberg qui apparaitra lorsque l'on définiera l'énergie `E` associé au signal. Et il suffit encore de suivre le Lapin blanc qu'est le photon pour le percevoir.... Le photon de fréquence `nu` possède une énergie `E=hnu`. Ainsi à chaque fréquence `nu` correspond un quanta d'énergie que l'on renomme `dE` et un quanta de temps que l'on nomme `dt=1"/"nu` et qui vérifie donc l'équation suivante :

`dE dt = h`

Notez que les variables `dE` et `dt` ne constituent pas des différentiels mais consituent des pas différentielles ou autrementdits des quantas de variation.

Ce principe d'incertitude qui découle de la mesure de l'énergie du photon, affirme que le pas de mesure du temps est inversement proportionnelle au pas de mesure de l'énergie. Ainsi, plus on connait précisément `t` et moins on a de précision sur l'énergie, et réciproquement plus on connait précisément l'énergie, et moins on a de précision sur la date de la mesure. Et, ce facteur de proportionnalité est la constante de Planck `h`. Ce principe va rendre fini le nombre d'états possibles du signal et ainsi rendre finie sa quantité d'information.

La constante de Plank `h` a pour dimension une action, c'est le produit d'une énergie et d'un temps. On l'exprime en joule seconde :

`h = 6,626 070 15 ×10^(−34) "J·s"`

7. Développement de Taylor

Le signal est dit analytique, s'il possède d'abord à chaque instant `t` une valeur `f(t)`, sa dérivée `f’(t)`, sa dérivée seconde `f’’(t)`, sa dérivée `n`-ième `f^("("n")")(t)`, etc.. On déclare le neurone `f"←"t`, qui signifie que `f` est une variable d'état qui dépend de `t`, et qu'elle possède `t` comme argument par défaut  : `f = f(t)`. On fait de même pour les dérivées successives :

`f’"←"t`
`f’’"←"t`
`f’’’ "←"t`
...
`f^("("n")")"←"t`

Le signal est dit analytique, si de plus, le développement de Taylor en tout instant `t` permet, à partir de la suite des dérivées, de calculer le signal dans un voisinage de `t` ce qui s'écrit comme suit :

`f(t"+" deltat) = f+f’deltat+f’’(deltat^2)/2+f’’’(deltat^3)/(3!)+ ... + f^("("n")") (deltat^n)/(n!) + O(deltat^(n"+"1))`

`f(t"+"deltat) = sum_(n=0)^n (f^("("n")"))/(n!) + O(deltat^(n"+"1))`

Avec comme convention d'écriture, ce qui découle des neurones :

`f"="f(t)`
`f’"="f’(t)`
...
`f^((n))"="f^("("n")") (t)`

Puis avec la convention suivante :

`0! "=" 1`

`f^("("0")") "=" f`

Et pour la somme..., vous aurez remarqué l'utilisation d'une variable d'indice de même nom `n` qui masque la borne `n` dans la partie itérée. Le dernier terme étant confondu avec le terme itératif. On choisit cette notation économe en nombre de variables pour ne pas diluer le sens intuitif de la formule dans des détails superfétatoires, les règles de masquages étant ici suffisantes pour résoudre de façon formelle les ambiguités apparentes.

Puis, notez la signification de l'élément `deltat` qui, ici, ne constitue pas une différentielle mais une variation réelle bornée de façon arbitrairement petite, ce qui entraine cette inégalité d'ordre `|dt| "≺" |deltat|`. Cela dénote une localité de voisinage non-différentielle relatant le fait que la fonction est définie par morceau, avec des morceaux pouvant être arbtrairement petit mais non-différentiels. Pour les fonctions analytiques, l'arbitrairement petit `deltat` peut-être remplacé par l'infiniment petit `dt`. La localité de voisinage et alors identique à la localité différentielle.

Puis, notez la signification du grand `O`, une notation de Landau qui s'interprète ici comme suit : `O(deltat^n)` représente une valeur `X`, fonction de `deltat` ce qui se note `X"←"(deltat)`, du même ordre que `deltat^n` lorsque `deltat` tend vers zéro, c'est à dire tel que `|X|"/"|deltat^n|` est borné sur un voisinage de `deltat=0`, et qui dans le cas continue qui nous concerne se note :

`lim_(deltat->0) X/(deltat^n) in RR`

Pour des raisons relevant d'hypothèses physiques et du constat que la nature tranche toute situation, le signal s'avèrera indéfiniment dérivable et sa série de Taylor convergente sur un voisinage en tout instant `t`. Ce que l'on résume en disant que le signal est analytique.

Le logiciel de calcul formel MuPAD que l'on peut trouver assez facilement en version 4.0.2 sur quelques sites pirates a été développé par l'université de Paderborn puis par d'autres universités et a été rendu abusivement propriétaire, vieux maintenant de plus de 20 ans. Il constitue une aide mathématique bien pratique et suffisante pour notre exposé. L'instruction suivante `sf"series"(f(t"+"dt),dt)` retourne le développement de Taylor :

`f(t) + dt"·"f’(t) + (dt^2"·"f’’(t))/2 + (dt^3"·"f’’’(t))/6 + (dt^4"·"f’’’’(t))/24 + (dt^5"·"f’’’’’(t))/120 + O(dt^6)`

8. Première approche des équations différentielles

Nous verrons dans la partie 3 comment se définit un signal analytique par un système d'équations différentielles dans lequel on ne s'intéresse qu'aux solutions analytiques, c'est à dire indéfiniment dérivable et développable en série de Taylor.

Pour des raisons propres aux fonctions harmoniques, ces systèmes d'équations n'utiliseront le plus souvent que les deux premiers ordres, les dérivées et les dérivées secondes, tel que par exemple l'équation décrivant la propagation d'onde. Cette continuité, cette dérivabilité première et seconde, s'explique par la nature analytique des modèles physiques. Par exemple, la position d'un astre, en l'état de nos connaissances physiques, évolue continûment et de façon linéaire selon une vitesse. La vitesse évolue continûment et de façon linéaire selon une accélération. Et l'accélération correspond à un champ d'accélération qui évolue continûment et de façon analytique selon la position des astres. Ainsi, la boucle est bouclée, et le système d'équation modélisant la position des astres est analytique.

On utilise une deuxième notation pour exprimer les dérivées première et seconde d'un signal `U` en utilisant des points comme chapeau. Avant d'utiliser une variable d'état telle que `U` avec son système de coordonnés par défaut `U(t)`, on rappel celui-ci à l'aide du neurone correspondant :

`U"←"t`

`dotU=U’= (dU)/(dt)`

`ddotU=U’’=(d^2U)/(dt^2)`

Le système d'équation comprend deux parties : le système d'équations locales et les conditions aux limites. Les équations locales vont décrire le comportement localement. Les conditions aux limites vont souvent décrire les conditions initiales du modèle.

Les fonctions analytiques se prolongent analytiquement c'est à dire par morceau à l'aide du développement de Tayor. Ainsi, si une fonction analytique est égale à une autre fonction analytique en tout point d'un segment, alors elles sont égales en tout point du domaine obtenu en prolongeant le segment.

9. Nature du signal

Il existe plusieurs espèces ou dimensions comme par exemples ; le temps, la distance, la charge électrique, la masse, etc. Et pour chaque espèce indépendante on choisie une unité ; la seconde, le mètre, le coulomb, le kilogramme, etc. L'ensemble de ces choix s'appellent un système d'unité. Le choix du système d'unité est arbitraire, et ne change pas les lois physiques. Un des principes métaphysiques est que chaque équation qui se veut décrire une loi, doit être homogène en terme d'espèce, afin que la loi ne change pas de sens lorsque l'on change de système d'unité.

Le signal possède une unité selon sa nature. On peut le définir de la manière la plus générale en lui donnant autant que possible une nouvelle dimension, une espèce indépendante.

Mais il se trouve que la nature nous offre un exemple fondamental de signaux que sont les signaux électromagnétiques (les ondes radios, la lumière, les rayons X...). C'est pourquoi pour concrétiser notre étude tout en étudiant les lois physiques on choisit comme espèce de signal, le potentiel électrique. Et on choisit comme unité de signal, celle préconisée par le système international d'unité qu'est le volt (noté `"V"`). Ainsi, la valeur du signal, qui est un potentiel électrique, est exprimée en volt. Ainsi, les amplitudes du signal sont exprimées en volt.

Les phases sont exprimées en radian (noté `"rad"`). Mais le radian n'est pas une unité, comme on le verra plus loin. Il indique seulement que la valeur sans unité désigne un angle. L'unité d'angle n'est qu'un facteur de proportionnalité, c'est à dire un réel, et le radian corrrespond au facteur de proportionnalité `1`.

L'unité de temps est la seconde (notée `"s"`). La fréquence est exprimée en tour par seconde c'est à dire en Hertz (noté `"Hz"`). Tandis que la vitesse angulaire est exprimée en radian par seconde (noté `"rad/s"`), sachant qu'un tour égale `2pi` radian, et que l'on passe de la fréquence à la vitesse angulaire en la multipliant par `2pi`, et que inversement on passe de la vitesse angulaire à la fréquence en la divisant par `2pi`.

Pour chaque espèces indépendantes, le choix d'une unité est sans conséquence. Par contre, si on admet l'éventualité d'une relativité d'échelle, il convient de définir une échelle, c'est à dire qu'il convient pour chaque espèces indépendantes de préciser dans quelle échelle, ou ordre de grandeur, nous nous plaçons.

Ainsi nous devons préciser dans quel échelle de temps on se situe, ou à quelle vitesse subjective le temps s'écoule, et qui est un facteur multiplicatif, définissant une unité de temps correspondant à notre échelle. De même, il doit exister un paramètre fondamentale précisant dans quelle échelle de mesure du signal nous nous plaçons, et qui est un facteur multiplicatif, définissant une unité de potentiel électrique, et désignant une variation de potentiel par unité de temps à la quelle on s'attend.

Le choix de l'échelle est important car dans de nombreuse théories cosmologiques, les lois diffèrent selon l'échelle. Elles ne sont pas les mêmes dans l'infiniment petit, dans une échelle classique, ou dans l'infiniment grand. Les lois dépendent de l'échelle où se situe l'observateur.

En procédant ainsi on munie l'observateur d'une subjectivité plus complète, on complète le concept de repère qui comprend maintenant une échelle. Le concept de repère se doit d'intégrer, comme on le verra plus-tard, toutes les symétries de l'univers.

Le signal se décompose en signaux sinusoïdaux. Le signal sinusoïdal fait partie des signaux les plus simples. C'est pourquoi on le retrouve dans la nature sous une forme fondamentale et élémentaire qu'est l'onde électromagnétique et le photon. Mais ceux-ci se définissent en 4 dimensions, les 3 dimensions spaciales auxquelles on ajoute une dimension de temps qui s'avèrera liée aux 3 autres.

Il est inutile d'inventer l'eau chaude, surtout lorsque la nature nous montre de tels fondamentaux, tel ce Lapin blanc, le photon, qu'il suffit de suivre pour ordonner notre construction en une oeuvre révélatrice.

L'onde électromagnétique dans le vide se déplace toujours à la vitesse de la lumière et cela dans tout référentiel non-accéléré. Elle obéït aux équations de Maxwell, et met en oeuvre la relativité restreinte.

Néanmoins, d'un point de vue pédagogique, il apparait nécessaire de concevoir cette théorie d'abord dans un univers ne comprenant qu'une seule dimension qui est celle du temps `t`, puis comprenant deux dimensions `x` et `t`, puis trois `x,y,t`, puis quatre `x,y,z,t`, afin d'obtenir une présentation didactique ordonnée où la seule lecture, exerçant l'esprit à percevoir les différents concepts qui s'épanouissent lors de l'apparition de chacune de ces dimensions, permet au lecteur candide de s'affranchire sans effort des prérequis à chaque étape. Et tout cela en une seule lecture.... En ce sens, cet exposé est révolutionnaire car il contribue à libérer la pensée et s'adresse au plus grand nombre.

10. Unité d'angle

Le radian ne constitue pas une unité physique comme les autres. La définition de l'angle dans le plan est liée à la structure des nombres complexes par la célèbre formule d'Euler qui relie les 9 symboles : `0,1,i,pi,e,"=","+","*","^"` 

`e^(ipi)+1=0`

Où l'exponentielle complexe se définit comme suit :

`e^(iy) = cos(y) + i sin(y)`

Le nombre `pi` dans la formule d'Euler signifie `pi` radian. De tel sorte que le radian n'est pas une unité. C'est une unité qui désigne l'absence d'unité. `"rad="1`. Elle indique néanmoins que la valeur sans unité désigne un angle.

Si nous voulons utiliser comme unité d'angle, le tour, noté `sigma` alors la formule d'Euler devient :

`e^(ipi)=-1`

`e^(i sigma/2)=-1`

Et on en déduit que le tour, noté `sigma`, n'est pas une unité mais juste un facteur de proportionnalité qui vaut exactement `sigma"="2pi`.

Le radian n'est pas une nouvelle unité mais un facteur de proportion égale à `1`. On aurait pu choisir comme unité d'angle, le tour qui vaut `2pi`, ou une subdivision entière du tour, le degré, qui vaut `2pi"/"360`, ou encore on le verra plus tard, le double-tour qui vaut `4pi`.

Si on n'introduit pas de tel facteur de proportionnalité, le développement des fonctions sinus et cosinus reste simple et font disparaître `pi`, ce qui confirme que c'est le choix le plus simple, comme on peut le voir dans les développements limités suivants :

`sin(x)=x+O(x^3)`

`cos(x)=x-(x^2)/2+O(x^3)`

`sin(b+x)= sin(b)+x cos(b) - x^2 (sin(b))/2+O(x^3)`

`cos(b+x)= cos(b)-x sin(b) -x^2 (cos(b))/2+O(x^3)`

L'instruction MuPAD suivante `sf"series"(sin(b"+"x),x)` retourne le développement de Taylor de `sin(b"+"x)` en `x` suivant :

`sin(b)+xcos(b) - (x^2sin(b))/2 - (x^3cos(b))/6+(x^4sin(b))/24+(x^5cos(b))/120+O(x^6)`

Voici une règle mémotechnique pour passer du sinus au cosinus : Le cosinus est un sinus dans lequel la phase est avancée d'un quart de tour, c'est à dire de `+pi"/"2` radian : 

`cos(x) = sin(x"+" pi"/"2)`

Les valeurs du sinus et du cosinus sont sans unité, c'est pourquoi souvent le facteur qui accompagne le sinus et le cosinus possède une unité, telle l'amplitude du signal qui est exprimée en volt.

11. Géométrie

Le cercle se définit dans le plan comme étant la figure convexe qui optimise le rapport entre la surface délimitée et la circonférence. Et on exprime ce rapport en fonction de l'une ou de l'autre. La circonférence `L` du cercle est égale au rayon `R` multiplié par `2pi`. L'aire `S` du cercle est égale au carré du rayon multiplié par `pi`.

`L=2pi R`
`S=pi R^2`

 
`S/L = R/2 = L/(4pi)= sqrt(S/(4pi))`

Un principe similaire devrait s'appliquer pour définir un signal sinusoïdal.

Le signal en tant qu'objet cinétique, possède un paramètre supplémentaire qui est sa vitesse angulaire `omega`, ou sa fréquence `omega"/"(2pi)`, ou sa période `2pi"/"omega `.

Un signal sinusoïdale de fréquence donnée correspond dans un plan à la projection sur un axe centrale d'un signal plus simple mais vectoriel de dimension `2`, appelé spino, qui correspond à un vecteur centrale tournant à la même fréquence. On redécouvre là, les recherches des astronomes de l'antiquité qui décrivaient le mouvement des astres par de savants emboitements de mouvements circulaires. Le cercle peut paraître naïf, mais il est la raison cachée de la sinusoïde prétencieuse dont l'apparente sophistication ne résulte que de l'occultation de ses fondements circulaires. Ce signal vectoriel de dimension `2` qui tourne en rond, appelé spino, est plus simple que la sinusoïde, et s'exprime dans une structure mathématique fondamentale qu'est le corps des nombres complexes, formant un espace vectoriel de dimension `2`, appelé plan, et qui a comme base `(1,i)`.

12. Complexe

Le plus grand corps commutatif de dimension finie est celui des nombres complexes `CC`.

Il est engendré par un groupe d'unités à `4` éléments `{"±"1, "±"i}`, avec comme règle `i^2"="-1`.

Il constitue un `RR`-espace vectoriel de dimension `2` appelé plan. Un nombre complexe `z` est un vecteur dans ce plan vectoriel de base `(1,i)`. L'axe des réels `RR` s'appelle l'axe des abscisses représenté horizontalement de gauche à droite, et l'axe des imaginaires `iRR` s'appelle l'axe des ordonnées représenté verticalement de bas en haut. Le symétrique de `z` selon l'axe des abscisses s'appelle le conjugué de `z` et se note `barz`. Le symétrique de `z` selon l'axe des ordonnées s'appelle l'opposé conjugué de `z` et se note `-barz`. Ce plan vectoriel s'identifie au corps des complexes `CC`. Ainsi quelque soit un complexe `z` nous avons toujours :

`z+barz in RR`

`z-barz in iRR`

`|z| = sqrt(zbarz) in RR^"+"`

Un nombre complexe `z` de partie réel `x` et de partie imaginaire `y` se note `z=x"+"iy`. Ce sont ses coordonnées cartésiennes, les coordonnées du vecteur `z` :

`z=sf"Re"(z) +isf"Im"(z) =x+iy`

`x= sf"Re"(z) = (z+barz)/2`

`iy= isf"Im"(z) = (z-barz)/2`

`barz = x-iy`               `bar(u+v)=baru+barv`

Un nombre complexe `z` de norme `a ` et d'argument `alpha` se note `z = a e^(i alpha)` et se note aussi `z = [a,alpha]`. Ce sont ses coordonnées polaires. L'argument de `z` noté `sf"arg"(z)=alpha` représente l'angle entre le demi-axe `]0,oo[` et le vecteur `z`. La norme de `z` noté `|z|=a` représente la taille du vecteur `z`.

`z=[|z|,sf"arg"(z)]=[a,alpha] = a e^(i alpha) = a cos(alpha) + i a sin(alpha)`

`a = |z| = sqrt(x^2+y^2)`

`alpha = sf"arg"(z) = 2 arctan(y/(x+|z|))`

`x = |z| cos(sf"arg"(z)) = a cos(alpha)`

`y = |z| sin(sf"arg"(z)) = a sin(alpha)`

`bar(z) = [a,-alpha] = a e^(- i alpha)`               `bar(uv)=baru barv`

Et nous avons la règle de produit suivante :

`[a,A][b,B] = [ab,A+B]`

` ae^(iA)be^(iB)= ab e^(i(A+B))`

Et nous avons :

`[1,0] = 1`
`[1,pi"/"2] = i`
`[1,pi] = "-"1`
`[1,2pi"/"3] = "-"i`
`[1,2pi] = 1`

`[a, alpha "+" 2pi] = [a,alpha]`

`[1,"-"pi"/"2] = "-"i`
`bar i = "-"i=[1,"-"pi"/"2]`
`1"/"i = "-"i`

Pour faire tourner un complex `z` d'un quart de tour, on le multiplie par `i`. Et pour le faire tourner dans l'autre sens d'un quart de tour, on le multiplie par `-i`.

Multiplier un complexe `z` par `e^(ialpha)` revient à augmenter son argument d'`alpha`, autrement dit, cela revient à faire tourner ce vecteur `z` d'un angle `alpha` dans le sens trigonométrique.

13. Le spino

On a choisi ce nom "spino", reprenant le terme physique de "spin" qui représente le moment cinétique d'une particule élémentaire, pour désigner un vecteur central tournant avec une vitesse angulaire constante. C'est un object cinétique parmi les plus simples.

Le spino est un signal complexe de norme constante et dont l'argument croit à une vitesse constante `omega`. C'est un vecteur qui tourne dans le plan à une fréquence `omega"/"2pi`. Avec cette description, le spino constitue un objet géométrique cinétique plus simple que la sinusoïde mais de valeur complexe. Et il y a deux sortes de spino dans le plan : les spinos positifs qui tournent dans le sens trigonométrique, et les spinos négatifs qui tournent dans le sens inverse c'est à dire qui tournent dans le sens des aiguilles d'une montre. C'est le signe de la vitesse angulaire `omega` ou de la fréquence `omega"/"2pi` qui déterminera cela.

Noter que le sens trigonométrique n'est qu'une convention, et qu'il peut être inversé, tout se passant alors comme si nous étions dans le corps des complexes conjugués.

De même que pour les signaux sinusoïdaux, le spino est centré au tour de zéro. Car les deux dimensions représentées par la valeur du signal complexe ne constituent pas à proprement parler de nouvelles dimensions, ou en tout cas pas encore. Car tous les points de ce proto-espace ne sont pas similaire. Le spino possède un état d'équilibre en la constante zéro qui est le vecteur nul du plan, et qui représente une sorte d'énergie nulle avant même la conception de l'énergie. Le signal complexe est centrée en zéro, autrement dit, il n'y a pas de composante continue. Ainsi, au premier jour il n'y a pas de composante de champ continue.

Un spino `z"←"(t)` est caractérisé par une vitesse angulaire non nulle `omega` dont le signe indique le sens de rotation, et par sa valeur initiale `z(0)` qui est le vecteur initial du spino, et qui est appelé pôle. On présente le pôle par ses coordonnées polaires d'amplitude `a` et de phase `α`.

`z(t) = a e^(i (alpha + omegat))`

`a`
: Amplitude. `a in RR^"+∗"`
`alpha` : Phase initiale. `alpha in RR"/"2piRR`
`omega` : Vitesse angulaire. `omega in RR^"∗"`

L'amplitude et la phase initiale sont regroupées en un nombre complexe `rho` appelé pôle, qui est égale au vecteur initial du spino, et que l'on note de façon polaire :

`z(0) = rho=[a,α]=ae^(ialpha)`

`z(0)` : Vecteur initial du spino

`rho` : Pôle du spino

Avant d'utiliser une variable d'état telle que `z` avec son système de coordonnés par défaut `z(t)`, on rappel celui-ci à l'aide du neurone correspondant :

`z"←"t`

`z = a e^(i (alpha + omegat))`

`z = a e^(ialpha) e^(iomegat)`

`z = rho e^(iomegat)`

       

 

`z = [a,α"+"omega t]`

`z = a[1, α][1, omega t]`

`z = rho[1, omega t]`

Ainsi, on présente le spino en regroupant les paramètres d'amplitude et de phase initiale en un paramètre complexe `rho` appelé pôle qui est simplement la valeur initiale du spino. Ce vecteur initiale du spino intervient dans le calcul du signal comme un facteur multiplicatif complexe :

`z(t) = rho e^(iomegat)`

`rho =a e^(ialpha)`

`omega` : Vitesse angulaire. `omega in RR^"∗"`
`rho`
: Pôle. `rho in CC^"∗"`
`a` : Amplitude. `a in RR^"+∗"`
`alpha` : Phase initiale. `alpha in [0,2pi[`

Ainsi la sommation de spinos de même fréquence s'obtient simplement en sommant leur pôle :

`rho_1 e^(iomegat) + rho_2 e^(iomegat) + rho_3 e^(iomegat) = (rho_1"+"rho_2"+"rho_3)e^(iomegat)`

À chaque signaux sinusoïdaux `a sin( alpha"+"omega t)` est associé un signal complexe plus simple et plus complet à la fois, appelé spino positif `a e^(i (alpha + omegat))` dont la projection sur l'axe des ordonnées donne le signal sinusoïdal en question. Considérons un signal sinusoïdal `U` avec son spino associé `z` :

`U,z ← t`

`U = a sin( alpha"+"omega t)`

`z = a e^(i (alpha + omegat))`

`z = acos( alpha"+"omega t) + i a sin( alpha"+"omega t)`

`sf"Im"(z) = a sin( alpha"+"omega t)`

`sf"Im"(z) =U`

La somme de deux spinos de même fréquence produit un spino de même fréquence dont le vecteur initiale est égale à la somme des vecteur initiaux des deux spinos. Et cette opération peut être faite à l'aide d'un dessin, d'une règle et d'un rapporteur d'angle.

La somme de deux sinusoïdes de même fréquence produit une sinusoïde de même fréquence dont le pôle est la somme des pôles des deux sinusoïdes :

`a sin( alpha"+"omega t) + b sin( beta "+"omega t) = r sin( varphi "+"omega t)`

`[a,alpha]+[b,beta] = [r,varphi]`

Et cette opération peut être faite à l'aide d'un dessin, d'une règle et d'un rapporteur d'angle. Il est aussi possible de calculer les cordonnées cartésiennes `(x,y)` des pôles, et de les sommer :

`acos(alpha)+iasin(alpha) + bcos(beta)+ibsin(beta)=r cos(varphi)+irsin(varphi) =x+iy`

`acos(alpha) + bcos(beta)=r cos(varphi) =x`

`asin(alpha) +bsin(beta) = r sin(varphi) = y`

Puis de calculer les coordonnées polaires `[r,varphi]` du pôle résultant :

`x+iy = r e^varphi`

`r = |x+iy| = sqrt(x^2+y^2)`

`varphi = sf"arg"(x+iy) = 2 arctan(y/(x+r))`

Pour chaque fréquence `omega`, le signal sinusoïdal est déterminé par son pôle qui est un nombre complexe, qui est le vecteur intitiale du spino associé, de coordonnée polaire `[a,alpha]`, spécifiant l'amplitude `a` et la phase initiale `alpha`. Le regroupement en pôle de ces deux paramètres `a` et `alpha` s'avère trés pratique, car si on ajoute deux signaux sinusoïdaux de même fréquence et de pôle respectif `z_1, z_2`, on obtient un signal sinusoïdal de même fréquence et de pôle obtenu en sommant les deux nombres complexes `z_1"+"z_2`.

14. Le signal électromagnétique

Le signal sinusoïdal fait partie des signaux les plus simples. C'est pourquoi on le retrouve dans la nature sous une forme fondamentale qu'est l'onde électromagnétique.

Lorsque la nature nous montre des fondamentaux, inutile d'aller chercher ailleurs, il suffit de suivre ces révèlations. L'onde électromagnétique dans le vide se déplace toujours à la vitesse de la lumière `c` et cela dans tout référentiel non-accéléré. Elle obéït aux équations de Maxwell, et met en oeuvre la relativité restreinte. Puis l'onde électromagnétique est quantifié en photons, et met en oeuvre la relativité générale.

Mais au stade où nous sommes, il n'y a pas encore d'espace ni d'énergie. Les équations de Maxwell sont réduites à néant. Seul reste une vague analogie qu'est l'équation différentiel d'une onde sinusoïdale de fréquence arbitraire.

L'embryons des équations de Maxwell-Lorentz apparaitra en définissant l'énergie de la façon la moins arbitraire possible. Et dès que l'énergie sera définie, la masse se définira selon la formule d'Einstein `E= mc^2`, ouvrant le chemin de la relativité générale.

15. L'énergie du photon

Le signal sinusoïdale se retrouve en physique quantique comme constituant la plus simple des particules élémentaires qu'est le photon. On constate que le signal électromagnétique de fréquence `nu` transporte une quantité d'énergie qui est quantifiée, et qui est cinétique. Chaque quanta d'énergie correspond à un photon de fréquence `nu` et d'énergie `E` :

`E=hnu`

`h` est la constante de Planck.

`h = 6,626 070 15 ×10^(−34) "J·s"`

Le photon est une vibration électromagnétique de fréquence `nu` et d'énergie `hnu`. Ainsi, il n'existe pas de moyen de transmission d'un signal électromagnétique de fréquence `nu` ayant une énergie plus faible que `hnu`. Et cette énergie est proportionnelle à la fréquence.

16. Masse du photon

La masse du photon s'obtient en divisant l'énergie par la vitesse de la lumière au carré, selon la formule d'Einstein `E=mc^2`. Le photon étant toujours à la vitesse `c` dans tout référentiel non-accéléré, il ne possède pas de masse au repos.

`m=E/c^2=(hnu)/c^2`

17. Principe d'incertitude d'Heisenberg

On constate que les données de temps `t` et d'énergie `E` d'un photon ont une précision limitée interdépendante. Si on connait précisement `E` alors on ne peut pas connaitre précisement `t` et réciproquement si on connait précisement `t` alors on ne peut pas connaitre précisément `E`. Mais la mécanique quantique ne s'en tient pas au constat de cette seule limite des mesures, elle l'instaure comme un principe de réalité, celui du calcul de l'énergie d'un photon. C'est le principe d'incertitude d'Heisenberg.

Etant donné un photon. Ce photon possède deux variables d'états que sont son énergie `E` et le temps `t`, qui est en faite le temps impropre du photon, le temps de l'observateur qui prend la mesure de `E`. L'incertitude sur la date c'est à dire sur la mesure du temps, noté par le pas de temps `dt`, dépend de l'incertitude sur la mesure de l'énegie, noté par le pas d'énergie `dE`, selon la formule de dépendance postulée par le calcul de l'énergie du photon :

`dE dt=h`

Autement dit, si on connait `t` deux fois plus précisement alors on connait `E` deux fois moins précisement, et réciproquement si on connait `E` deux fois plus précisement alors on connait `t` deux fois moins précisement.

18. Principe de relativité générale

Une des façons la plus simple d'aborder l'écoulement du temps en présence de force gravitationnelle, est de suivre le Lapin blanc qu'est le photon d'énergie `E=hv` et de masse `m=hnu"/"c^2`.

Tout d'abord on admet que les forces gravitationnelles dérive d'un potentiel, et donc, que le travail des forces gravitationnelles s'exerçant sur une particule ne dépend pas du chemin parcouru par la particule mais juste du potentiel de gravité du point de départ et du potentiel de gravité du point d'arrivé.

Considérons un photon d'énergie `E_1` et de masse `m_1` placé dans un lieu de potentiel de gravité `P_1` et arrivant sur un lieu de potentiel de gravité `P_2`. Le tavail de la force de gravité sur le photon va modifier son énergie et celui-ci aura une énergie `E_2` et une masse `m_2`.

La force de gravité qui s'exerce sur le photon produit un travail égale à `-(m_2P_2-m_1P_1)` qui s'ajoute à l'énergie cinétique du photon.

`E_2 = E_1- (m_2P_2-m_1P_1)`

`hnu_2-hnu_1= - (hnu_2)/c^2P_2 + (hnu_1)/c^2P_1`

`nu_2(1+P_2/c^2) = nu_1(1+P_1/c^2)`

La mesure du temps la plus précise qui est faite actuellement par les horloges atomiques consiste grosso-modo à compter les périodes d'une raie d'émission. Les atomes dans un processus laser émettent continûment des photons tous en phase et de fréquence `nu_1` d'une précision extrême qui donne ainsi une mesure fiable de l'écoulement du temps. Une fréquence deux fois plus rapide dénote un écoulement du temps deux fois plus rapide.

Un observateur se trouvant dans un lieu de potentiel de gravité moins élevé percevra ces photons émis, décalés dans le rouge, car le photon, pour parvenir à l'observateur, va perdre de l'énergie. Et réciproquement, un observateur se trouvant dans un lieu de potentiel de gravité plus élevé percevra ces photons émis, décalés dans le bleu, car le photon, pour parvenir à l'observateur, va emmagasiner de l'énergie.

Cela entraine que le temps s'écoule plus lentement dans les lieux où le potentiel de gravité est fort. Notez que ce rapport est valable quelque soit la fréquence du photon initiale `nu_1` :

`r = nu_2/nu_1 = (1+P_1/c^2)/(1+P_2/c^2)`

Ainsi le rapport `r = nu_2"/"nu_1` indique combien de fois plus vite s'écoule le temps à l'endroit où le potentiel de gravité est `P_2` par rapport à l'endroit où le potentiel de gravité est `P_1`.

19. Expérimentation

Des expériences ont été faites. Des chercheurs japonais ont constatés que l'horloge atomique placée en haut d'une tour de `450` mètres prenait de l'avance, de `4` nanosecondes par jour par rapport à l'horloge atomique placé au sol. Vérifions si notre modèle est valable pour expliquer ce phénomène : Il nous faut connaitre la vitesse de la lumière, `c`, la masse de la terre `M`, le rayon de la terre `R`, la constante universelle de gravité `G`. Nous pouvons alors calculer le potentiel de gravité au sol `P_1`, le potentiel de gravité à `450` mètres, `P_2`, et le rapport d'écoulement du temps `r` :

`M = 5,972"×"10^24 "Kg"`
`R = 6371 000 "m"`
`G = 6.674"×"10^-11 "N·m"^2"/Kg"^2`
`c = 299792458 "m/s"`

`P_1=(GM)/R = 62560238 "N·m/Kg"`

`P_2 = (GM) / (R + 450 "m") =62555820 "N·m/Kg"`

`r = (1+P_1/c^2)/(1+P_2/c^2) = 1.000000000000049`

Le calcul nécessite au moins une précision de 16 chiffres. L'instruction MuPAD `sf"DIGITS":=16` fixe le nombre de chiffres voulu utilisé pour les calculs.

Le rapport d'écoulement du temps multiplié par une jounée c'est à dire par `24"·"60"·"60` secondes puis dans lequel on soustrait la journée, va nous donner le nombre de secondes d'avance par jour de l'horloge se situant au point `P_2` :

`a= (r -1)"·"24"·"60"·"60 "s" = 0.0000000042 "s" = 4"×"10^-9 "s"`

Soit environ `4` nanosecondes d'avance chaque jour. Mais pour valider ce calcul, il faut faire un calcul d'erreur. Il faut vérifier que si l'on change les valeurs `M,R,G` respectivement de `±dM,±dR,±dG`, le résultat reste identique.

`dM =10^21 "Kg"`
`dR= 1000 "m"`
`dG =10^8 "N·m"^2"/Kg"^2`
`dc=0`

L'incertitude sur la vitesse de la lumière est nulle car dans le système d'unité international, les erreurs sont reportées sur les autres unitées.

La validation du calcul s'obtient en refaisant `3` fois le calcul avec des données modifiées `M"±"dM, R"±"dR, G"±"dG`. Et on trouve une précision allant juqu'au 11-ième chiffres après la virgule : `a=0.00000000424`.


 


Dominique Mabboux-Stromberg

 

Sommaire
Sommaire
Suivant