Précédent
Suivant


Du signal à l'équation du monde (3)
 
Calcul différentiel
 


1. Introduction

Les ondes constituent un phénomène auto-entretenu parmi les plus simples à modéliser, et elles constituent la base de l'électromagnétisme. Nous allons explorer ce phénomène en commençant par l'étudier dans un univers unidimensionnel ne possédant qu'un axe du temps. Et on commencera par étudier le signal sinusoïdal.

Puis nous reprendrons notre discussion sur la génèse et sur la nature du signal. Si on conçoit au départ le signal le plus simple, un signal sinusoïdal, celui d'un photon, comment faire naître les équations de Maxwell-Lorentz en partant de ce seul signal ?

La physique s'appuie sur le calcul différentiel pour définir des modèles qui sont des systèmes d'équations différentielles partielles. La nature donne toujours une solution et le modèle peut toujours être choisie comme étant analytique. Aussi, nous n'étudirons le calcul différentiel que pour des fonctions analytiques, des fonctions qui en tout point de leur domaine de définition se développent en série entière convergente sur un voisinage.

Néanmoins, le langage de ces équations peut paraître quelque peu hermétique pour les non-initiés. Et ce n'est pas par la construction de démonstration rigoureuse que l'on fait découvrir la puissance intuitive de ce langage.

Les mathématiques peuvent-être abordées comme la physique. Ce sont toutes deux des sciences hypothético-déductives, et il n'est pas nécessaire d'obtenir la preuve formelle d'une théorie pour l'utiliser si on a la conviction que celle-ci est valide. Ce n'est alors ni plus ni moins qu'une hypothèse. La preuve rigide est ainsi remplacée par l'hypothèse. Et des modèles possédant un formalisme incomplet parceque suceptible de se décliner en plusieurs modèles différents, peuvent jouer ce rôle d'hypothèse. L'expérimentation joue alors le rôle d'élément de preuve, des preuvent incomplètes certes mais qui peuvent, comme en physique, récuser ou conforter le modèle et l'hypothèse ou même les façonner.

On décrira le calcul différentiel des fonctions analytiques à l'aide d'un langage algébrique prometteur obtenue par extension élémentaire, et que l'on confortera par l'expérimentation, ce qui rend la présentation au néophyte beaucoup plus facile. On utilisera les hyperréels et d'autres extensions de structures pour substituer les démonstrations d'analyse par des démonstrations d'algèbre. Mais, aborder ce sujet ainsi sous un autre point de vue paradigmatique consiste à refonder l'Analyse, son objet et son but. Voir Analyse et espace métrique

2. Le déterminisme

Tout effet a une cause, et la cause qui constitue également un effet, posséde à son tour une cause, et ainsi de suite. La cause d'une cause est une cause comme les autres, qui possèdent à son tour une cause. La première de toutes les causes qui n'a pas de cause, ou qui est sa popre cause - et qui explique l'existence du monde - n'est pas de ce monde. Elle existe dans un monde tout autre, pas un monde parallèle ou une vague copie du nôtre, non, un monde où il n'y a pas de temps et qu'il ne faudrait pas appeler monde car tellement différent... et où l'entendement est différent et inconnu, où tout est possible. Cela dit, c'est un raccourci théologique facile qui répond à la question existentiel du monde sans vraiment y répondre, à l'image des doctrines religieuses sur la génèse.

En d'autre terme, dans notre monde, le physicien s'attache à révéler le déterminisme des lois du monde, qui constitue son intelligibilité. Et tout ce qui échappe à ce déterminisme est déterminé par des variables extérieures inconnues. Le hasard est donc la manifestation d'intrusion de causes inconnues, et n'existe donc pas en soi. Cette idée et exprimée par Einstein dans l'adage "Dieu ne joue pas aux dès". Restreindre cet idée consiste alors à s'interdire de chercher davantage.... L'obscurantisme est alors de quel coté d'après-vous ?.

Ainsi, les choses étant déterminées, ce qui constitue l'essence de l'intelligibilité du monde, on pourrait pensé que cela n'existe pas, comme tout ce qui est répétition immuable. Mais si !.... Car cela n'a jamais était calculé, jamais était réalisé avant. C'est d'ailleurs cette effectivité première du calcul qui constitue une des composantes paradigmatique du temps.

3. La symétrie du temps

Aussi surprenant que cela puisse paraître, la notion de flèche du temps qui distingue le passé du futur est une notion purement macroscopique. Car à l'échelle microscopique les lois régissant les interactions entre particules respectent une symétrie parfaite selon le sens du temps. C'est à dire que si l'on inverse le sens du temps, en remplaçant dans les équations `t` par `"-"t` et donc `dt` par `"-"dt`, on obtient les mêmes équations, les mêmes lois.

Si on regarde un film à l'envers en remontant le temps, on voit une scène se dérouler dans le sens inverse du temps comme par magie. Une telle scène peut se réaliser, car d'un point de vue microscopique les lois sont respectés, et pourtant cela nous parrait impossible. C'est parceque nous sommes dans une chaine causale dominante définissant cette notion macroscopique qu'est la flêche du temps, une flêche du temps qui n'est qu'apparence et illusion. Rien ne nous interdit d'imaginer l'existence de chaines causales inversées.

Tout étant déterminé, la connaisance de l'univers à un instant donnée détermine aussi bien l'univers future que l'univers passé. La notion de flêche du temps est liée au second principe de la thermodynamique, à la notion de désordre ou d'entropie toujours croissante. Et si on constate une voilation de cette loi, rien ne pourra distinguer cette violation avec l'introduction d'une chaine causale inverse, elle-même soumise à cette loi inverse.

4. Langage formel, intuition et liberté

"Tout est langage."
"Le choix du langage adapté au problème constitue la moitier de sa résolution
."

L'art en la matière consiste à inventer un langage formel adapté au problème, désignant une construction efficiente. Et ce langage deviendra un vecteur incontournable de transmission du savoir. L'enjeux devient alors colossal. Et le principal frein au développement de ce type de recherche reste causé par les nombreux préjugés, dont pour la plus part, nous n'avons pas conscience, qui sont ancrés en nous plus ou moins profondément. Ils agissent comme des oeillères, et nous pouvons difficilement nous en débarrasser dans la vie quotidienne. Ceux qui s'en sont défait ont ainsi acquit un avantage certain pour avancer dans ces études savantes.

Il y a de nombreuses façons de décrire un système déterministe. La notation est importante car elle transporte une intuition, tout un ensemble de non-dits, de mécanismes de reconnaissance, et de règles simples de déduction. Qu'est-ce qui rend si difficile le dévoilement des différents concepts et nous arrête dans notre élan créateur ?. C'est le conformisme et l'absence d'intuition. L'intuition joue un rôle moteur, essentiel dans la génèse des concepts. Il y a donc tout un travail préliminaire pour appréhender un espace, sans préjugé, et pour l'étoffer de sens, d'analogies..., d'une gnose, seul moyen de transmettre cette intuition (aux autres ou à soi-même). Mais qu'est-ce qui différencie l'intuition du préjugé ? C'est le jour et la nuit, l'animé et l'inerte. L'intuition crée. L'intuition est naissance, source de développements potentiels, tout en parcourant quelques grands schémas paradigmatiques, sortes de guide spirituel mais davantage comme un rêve aux mutiples formes mouvantes qui se métamorphose au fur et à mesure qu'il se construit. Le préjugé est au contraire formel, et n'ouvre pas à discution. Il clos la question. Mais de la même façon que la mort est nécessaire à la vie, le préjugé est nécessaire à l'intuition, sans quoi nous partirions dans toutes les directions à la fois et rien ne pourrait être fonder ni construit. Il faut seulement avoir les bons préjugés au bon moment pour enterrer ce qui doit l'être et les bonnes intuitions pour découvrir les voies qui nous intéressent.

Du langage mathématique, un principe paradigmatique fondamental affirme que l'élément peut désigner toute chose, et donc qu'il est toujours possible de reconsidérer comme étant égaux deux éléments initialement distinct. On appelle cela le principe de fusion. Cette étonnante faculté de l'esprit traduit le fait que l'élément puisse désigner toute chose et permet de se libérer des conformismes redoutables liés à la langue. Certes, l'asservissement décrié sur le langage est généralement celui de la censure ou de la réduction, rendant égale l'un et son contraire, rendant l'expression des idées impossibles. Mais son inverse est également un asservissement redoutable, l'illusion que deux choses de noms différents serait intrinsèquement différentes puisque désignées différemment. Le principe de création permet d'agrandire la langue, le principe de fusion permet de réduire la langue, tout deux nous libèrent des emprises de la langue.

5. Notation du physicien

Un premier critère de localité est à prendre en considération qui permet de définir ce que sont les grandeurs classiques. Il n'y a pas que les vitesses s'approchant de la vitesse de la lumière qui peuvent être qualifiées de non-classique, les simples grandeurs aussi. Le cosmos en son entier ou à traver un cycle-monde ne peut pas être considéré comme un système classique, car trop grand, car il possède alors une qualité d'absolu, ce que ne doit pas avoir un système classique. De même, dans l'infiniement petit où la quantification de l'information va jouer un rôle majeur, une localité trop petite sort également du cadre classique. Une distinction devra donc être faite entre les notions de système quantique, de système classique et de système cosmologique. Et nous verrons en quoi ces notions peuvent être reliées entre-elles par un principe de relativité d'échelle.

Un système est caractérisé par des variables d'état, qui décrivent l'état du système. Le modèle est mathématique et ne fait qu'approcher la réalité. Donc il n'est pas judicieux de se tenir à un seul type de modèle sous peine de ne pas pouvoir évoluer et s'approcher davantage de la réalité. C'est pourquoi il peut-être judicieux d'utiliser un type de modèle inachevé, suceptibles de se compléter en de multiples modèles différents, et ainsi avoir un champ d'exploration beaucoup plus large. Le modèle est rendu inachevé en ne retenant dans sa définition que quelques propriétés jugées fondamentales.

Le modèle comprends des variables d'état qui sont dépendantes analytiquement entre elles et qui définissent l'état du modèle. La définition d'un modèle se présente comme un programme informatique, et nous allons décrire son langage.

Etant donnée des variables d'état `t,x,y`, on crée une nouvelle variable d'état `f` dépendant explicitement des variables `t,x,y` en posant l'existence une fonction analytique qui appliquée aux arguments `t,x,y` calcule `f`. On déclare cette existence par le neurone suivant qui joue le rôle de prototype :

`f ← t,x,y`

Le neurone `f"←"t,x,y` signifie que la variable d'état `f` est totalement déterminée par les trois variables d'état `t,x,y`. On dira que `f` est une variable de sortie (ou la tête du neurone), et que les variables `t,x,y` sont des variables d'entrée (ou les racines du neurone).

Si `f` n'est la tête que d'un seul neurone de ce type `(RR ← RR,RR,RR)`, alors le neurone définit sans ambiguïté une fonction de même nom `f(".,.,.")`. Il définie la variable d'état `f` comme étant le résultat de la fonction `f(".,.,.")` portant le même nom, appliquée aux arguments par défaut `(t,x,y)` précisés dans le neurone et qui doivent être des noms de variables d'état.

Ainsi la variable d'état `f` s'apparente à une fonctions analytique `f(".,.,.")` à trois arguments. Le résultat de la fonction est une variable qui porte le même nom que la fonction, c'est le principe de la notation du physicien. Le neurone qui précise cela, précise l'argument par défaut, faisant que dans les formules, là où l'on attend un élément du type de la variable `f`, c'est à dire ici un réel, l'expression `f` désignera `f(t,x,y)`. Le neurone précise ainsi un système de coordonnées `(t,x,y)` par défaut pour la variable `f`.

`f=f(t,x,y)`

Le langage se veut toujours économe en écriture mais devant toujours permettre une adaptation rapide. Rappelons l'adage : "La moitier de la résolution d'un problème s'opère dans le choix d'un langage adapté". Evitons les inutiles précisions lorsqu'il n'y a pas d'ambiguïté. Le typage permet de distinguer des fonctions de même nom lorsqu'ils sont de type différent.

Par exemple si `f` n'est la tête que d'un seul neurone de type `(RR"←"RR,RR)`, alors le neurone définie sans ambiguité une fonction de même nom `f(".,.")`.

`f ← x,y`

`f=f(x,y)`

On utilisera ainsi l'inférence de type pour économiser des déclarations superflus dans l'ébauche d'un formalisme toujours en construction. Car rappelez-vous : "Le choix du langage adapté au problème constitue la moitier de sa résolution". Parcontre s'il y a une ambiguïté, il faut alors la lever en précisant de quelle fonction il s'agit, soit en utilisant une forme d'appel spécifique mentionnée dans le neurone, ou soit par un appel avec label. Par exemple considérons le cas où `f` est la tête de plusieurs neurones d'un même type :

`f ← x,y`

`f ← u,v`

L'appel `f(".,.")` est alors ambigüe. La nature des fonctions analytiques font que deux fonctions analytiques basées sur un même ensemble de variables racines, et qui sont égales sur un voisinnage, sont nécessairement identiques sur tout le domaines connexe obtenue en étendant ce voisinnage. Ainsi la fonction évoquée est déterminée par l'ensemble des variables racines choisi pour la calculer. On peut donc toujours utiliser un appel avec label précisant l'ensemble des variables choisie pour la calculer.

`f(x"="x,y"="y)`

Dans cet appel avec label, l'ordre des arguments n'a pas d'importance puisqu'ils sont nommés. Les arguments sont des égalités où le premier membre est un nom de variable d'état et le second membre une expression qui servira d'argument.

`f=f(x"="x,y"="y)=f(u"="u,v"="v)`

Puis on autorise une seconde forme de neurone précisant une forme d'appel spécifique. Par exemple :

`f←(x,y)`

`f←[u,v]`

Délors les noms des fonctions associés à leur forme d'appel `f(".,.")` et `f[".,."]` ne sont plus ambigües.

`f=f(x,y)=f[u,v]=f(x"="x,y"="y)=f(u"="u,v"="v)`

Remarquez que l'expression d'un calcul quelconque correspond à une variable d'état anonyme (ou s'il on veut, dont le nom correspond à l'expression de son calcul).

Lorsqu'une déclaration de neurone se fait avec une forme d'appel spécifique déjà existante, la syntaxe autorisée par celle-ci remplace alors la syntaxe autorisée précédente. Cela permet d'adapter la notation par simple redéclaration de neurone avec forme d'appel spécifique. Par contre l'appel avec label est toujours valable en toute circonstance.

6. Les fonctions analytiques

Le domaine de définition d'une fonction analytique est par principe un ensemble ouvert connexe dans un espace métrique. Autrement dit, pour tout point du domaine de définition il existe un rayon non-nul tel que la boule de ce rayon, centrée sur le point en question, soit incluse dans le domaine de définition, et la prolongation par voisinage successif de cette boule redonne le domaine de définition tout entier.

Les fonctions analytiques ont une propriété tout à fait remarquable et qui les définit, c'est qu'elles se développent autour de tout point de leur domaine de définition en une série entière, convergente sur un voisinnage, appelé série de Taylor. Considérons le neurone suivant :

`f"←"t,x,y`

La fonction analytique `f(".,.,.")` se développe au voisinage de tout point `(t,x,y)` de son domaine de définition, en une série entière appelée série de Taylor de `f` au voisinage de `(t,x,y)`. Pour formaliser le voisinnage, on définit les variables arbitrairement petites `deltat,deltax,deltay`

`f (t"+"deltat,x"+"deltax,y"+"deltay) = sum_(i,j,k) a_("("i,j,k")") deltat^i"·"deltax^j"·"deltay^k`

Les indices `i,j,k` parcours l'ensemble des entiers naturels. Les constante `a_("("i,j,k")")` sont les coefficients de la série entière appelée série de Taylor de `f` au point `(t,x,y)`. Le coefficient `a_("("i,j,k")")` est le produit d'un coefficient multinomiaux et d'une dérivée partielle :

`a_("("i,j,k")") = 1/(i!j!k!) (del^(i"+"j"+"k)f)/(delt^i del x^jdel y^k) `

7) Un exemple

Considérons un système caractérisé par quatres variables d'état réels `u,v,t,x`, et les neurones `u,v"←"t,x`. On a regouper les deux neuronnes ayant les mêmes racines.

Considérons que la variable `t` indique le temps, et que la variable `x` indique une position sur une droite. La variable `x` étant une variable d'entrée indépendante du temps, elle constitue ce que l'on appelle un indice. À un instant `t`, le système est décrit par les valeurs de `u` et de `v` pour chaque valeur d'indice `x` sur la droite.

La génèse s'accomode mal avec l'infini. Aussi nous prendrons un exemple plus simple où `x` se situe sur un cercle, `x "∈" [0,2pi["⟲"`. Et on a pris le radian comme unité puisque cette unité est canonique pour le cercle. On a jouté le symbole `"⟲"` pour indiquer que l'on referme l'intervalle en reliant la fin au début sans rien modifier d'autre. C'est le même intervalle mais muni d'une structure comprenant une métrique particulière appelé variété différentielle et que nous appellerons variété algébrique en la redéfinissant algébriquement.

A chaque instant `t`, l'état du système est décrit par l'ensemble de triplets suivants, qui correspond au graphe de deux courbes selon `x`, qui sont pour des raisons de quantité d'information finie, nécessairement analytique, et le symbole `⟲` est important car cela perfectionne la propriété analytique des courbes en question : elles doivent être analytiques au voisinnage de `x"="0` qui coïncide au voisinage de `x"="2pi`. L'état du système à l'instant `t` est donc décrit par cet ensemble :

`{(u(t,x),v(t,x),x) "/" x"∈" [0,2pi["⟲"}`

8. De la nature analytique

La Nature tranche toujours toutes les situations en proposant une solution naturelle puisque supposée déterminée..., et cela s'opère sans mettre en oeuvre une quantité d'information infinie comme le montre l'expérimentation en physique quantique. Or notre modèle utilise les nombres réels, une structure mathématique dépassant la réalité. Un nombre réel transporte une quantité d'information infinie, ce que ne contient pas un état réel. Pour remédier à cet obstacle théorique, on commence par se restreindre aux seuls fonctions analytiques, en invoquant toujours l'intelligibilité supposée du monde et sa capacité de pouvoir dévoiler le détaille de toute ses évolutions, en les regardant de suffisamment prés, faisant que chaque transformations physiques mises en oeuvre se fait finalement toujours de manière harmonieuse et sans à-coup à quelque niveau de dérivée que ce soit. Les fonctions utilisées sont toutes des fonctions analytiques c'est à dire indéfiniment dérivables et développables en tout point du domaine de définition en série entière convergente sur un voisinnage de ce point. C'est l'hypothèse que nous sommes naturellement amené à faire.

Délors les variables de sortie sont des fonctions analytiques c'est à dire indéfiniment dérivables et développables en tout point du domaine de défintion en série de Taylor convergente sur un voisinnage. Dans le cas d'une seule variable d'entrée, `f"←"t`, cela se traduit ainsi : Quelque soit `t` dans le domaine de définition de `f(".")`, il existe un rayon `r">"0` de convergence tel que pour tout `h in ]t"-"r,t"+"r[` nous ayons :

`f"←"t`

`f(t"+"h) = f+f’h+(f’’)/2 h^2+(f’’’)/(3!)h^3+ ... + f^("("n")")/(n!)h^n + ...`

Ce qui s'écrit formellement :

`f(t"+"h) = sum_n (f^("("n")"))/(n!) h^n`

Avec les conventions d'écriture suivante : L'indice `n` parcourt les entiers naturels `NN`. La variable `f` possède à chaque instant `t` une valeur `f(t)` que l'on note simplement `f` puisque qu'elle possède `t` comme argument par défaut. De même pour les dérivées. Les variables dérivées successives `f’, f’’, f’’’,...` sont dépendantes de `t` comme l'est `f`. Puis nous avons les conventions `0! "=" 1` et `f^("("0")") "=" f`. Et pour la somme, vous aurez remarqué l'utilisation d'une variable d'indice, `n`, qui parcourt par défaut l'ensemble des entiers naturels `NN`.

Puis la variable dérivée `f’` est définie formellement comme suit :

`f’"←"t`

`f’ = lim_(h->0) (f(t"+"h)-f)/h`

La démonstration du développement de Taylor se fait habituellement par une démonstration d'analyse. On se propose de le faire par une démonstration d'algèbre. Pour cela, il faudra développer un environnement théorique algébrique un peu plus poussé utilisant les hyperréels, remplaçant l'arbitrairement petit par un infiniment petit, remplaçant les équations de voisinages par des équations locales. Mais dans un premier temps, il conviendra de présenter le développement de Taylor limité sous l'angle mécanique en étudiant la cinématique, une série limitée que l'on obtient de façon canonique en procédant à une succession d'intégrations.

Toute variable totalement dépendante explicitement ou implicitement, est le résultat d'une fonction analytique, et doit donc être indéfiniment dérivables et développables en tout point du domaine de définition en série de Taylor convergente sur un voisinnage. Il en est de même pour les variables d'entrées. Les variables d'entrée étant arbitraires, leur dépendance arbitraire devront être également analytique. Dans la pratique, souvent, la variable d'entrée dépendra d'une variable représentant le temps et sera de dérivée constante et ses dérivées suivantes seront donc nulles.

9. Notation ensembliste

Etant donné un ensemble muni d'une addition et d'une multiplication, formant ainsi une structure. Et étant donnés quelques uns de ses éléments `x,y` et quelques une de ses parties `A,B`.

On adopte la notation ensembliste. Les calculs peuvent combiner des éléments et des ensembles. Et ils s'interprètent en appliquant le quantificateur existentiel à chaque ensemble :

`x"+"A`
  `=`  
  `{x"+"y "/"EEy "∈" A}`
`A"+"B`
`=`
  `{x"+"y "/" EEx "∈" A, EEy "∈" B}`
`xA`
`=`
  `{xy "/" EEy "∈" A}`
`AB`
`=`
  `{xy "/" EEx "∈" A, EEy "∈" B}`

De même on donne un sense à l'égalité entre un élément et un ensemble qui est le suivant :

`x"="A`
    `<=>`    
  `EEy "∈" A, x"="y `
    `<=>`    
`x "∈" A`
`x"="y"+"A`
`<=>`
  `EEz "∈" A, x"="y"+"z`
`<=>`
`(x-y) "∈" A`

Lorsque `x"="y"+"A` on dit que `x` égale `y` à `A` près.

Si la structure est de plus, munie d'une relation d'ordre stricte `"<"` ou non-stricte `"⩽"`, on adopte la notation ensembliste faisant que quelque soit un élément `x` de la structure et des parties `A,B` de la structure, la relation entre un élément et un ensemble, ou entre un ensemble et un élément, ou entre deux ensembles, s'interprètent en appliquant le quantificateur universelle à chaque ensemble :

`x<A` `<=>`   `AAy "∈" A, x<y`
`A<x` `<=>`   `AAy "∈" A, y<x`
`A<B` `<=>`   `AAx"∈" A, AAy"∈" B, x<b`

10. Ordre différentiel

Le calcul différentiel s'intéresse aux petites variations pour établir les lois qui s'opèrent exclusivement localement dans un modèle. Mais une petite variation multipliée par un nombre entier peut toujours devenir une grande variation qui n'est alors plus locale. Pour s'affranchire de cela, il faut rompre avec cet axiome d'archimède, et inventer des nombres infiniments petits, ou dits infinitésimaux, qui sont plus petits que tous les réels strictement positifs, ainsi, multipliés par n'importe quel entier naturel, ils restent toujours infinitésimaux. On passe ainsi de l'infini potentiel que représente le nombre arbitrairement petit, à l'infini acté que représente le nombre infinitésimal `epsilon`.

Ce passage à l'infini acté correspond à une extension élémentaire de corps ordonnée, c'est à dire correspond à l'ajout dans `RR` d'un nouvel élément `omega` plus grand que tous les réels, pour produire encore une structure de corps ordonnée. Une telle extension n'est pas toujours possible. Elle peut aboutire à une incohérence ou à une réduction drastique de la structure résultat. Mais tel n'est pas le cas ici, cela aboutit à une structure des hyperréels, un corps totalement ordonné non-archimédien contenant les réels.

On suppose donc l'existence cohérente de cette structure de corps des hyperréels totalement ordonnée contenant `RR`, engendrée par `RRuu{omega}``RR<omega`.

Cela va nous permettre d'enrichir le concept de suite convergente de réels et de manipuler ces suites comme on manipulerait des nombres hyperréels.

"Dans le monde analytique, toute limite se calcule par un développement de Taylor."

Les nombres infinitésimaux sont des hyperréels. Ce sont des nombres infiniment petit vis-à-vis de `1`, et qui apparaissent par le choix d'un étalon de l'infiniment petit noté `epsilon`, marquant le passage de l'infini potentiel à l'infini acté. Cette première génération de nombres infinitésimaux constituent des infiniments petits du premier ordre, c'est à dire de l'ordre de `epsilon`, dont l'ensemble se note `O(epsilon)`. Si on multiplie deux tels éléments, on obtient alors un élément du second ordre, de l'ordre de `epsilon^2` qui est un infiniment petit vis-à-vis de `epsilon`, et dont l'ensemble se note `O(epsilon^2)`. Et ainsi de suite... L'ensemble des nombres réels `RR` fait partie de l'ensemble des hyperréels de l'ordre de `1` qui se note `O(1)` et constitue une strate archimédienne notée `RR`.

Il apparait symétriquement un étalon de l'infiniment grand `omega =1"/"epsilon`. C'est ainsi que l'on perçoit une partie des hyperréels par le biais d'une suite croissante d'ordres différentiels :

` ... O(epsilon^3) ⊂ O(epsilon^2) ⊂ O(epsilon) ⊂ O(1) ⊂ O(omega) ⊂ O(omega^2) ⊂ O(omega^3) ...`

Les ordres différentiels s'emboitent comme des poupées russes mais ne se mélangent pas : les sommes finies ou convergentes d'éléments d'un ordre produisent un élément du même ordre. Et le produit de deux éléments est dans l'ordre résultant du produit des deux ordres.

Les hyperreéls constituent une extension du corps des réels totalement ordonnés mais non-archimédien. Il est à noter qu'il existe une version dénombrable satisfaisant aux seuls propriétés du premier ordre de la structure. Car c'est une propriété de la logique du premier ordre que de toujours posséder au moins un modèle dénombrable.

Puis les hyperreéls que nous utiliserons seront toujours stratifiés c'est-à-dire appartiendront toujours à :

`"...+"omega^3RR"+"omega^2RR"+"omegaRR"+"RR"+"epsilonRR"+"epsilon^2RR"+"epsilon^3RR"+..."` 

Le monde des fonctions analytiques est celui des séries entières convergentes sur un voisinnages. Pour toutes fonctions analytiques `f`, et pour tout point `x` de son domaine de défintion, la fonction se développe en une série entière convergente sur un voisinage de ce point `x`. Et cette série entière s'appelle la série de Taylor de `f` en `x`. Prenons par exemple une fonction analytique `f` à une variable `x`, que l'on développe autours de `x`. Pour formaliser un voisinnage de `x` on définit une valeur `h` arbitrairement petite mesurant un éloignement de `x` :

`f"←"x`

`f(x"+"h) =a_0+a_1 h+a_2 h^2+a_3 h^3+...=sum_n a_n h^n`

Le coefficient `a_n` est égale à :

`a_n = (f^("("n")"))/(n!)`

L'extension du corps de réel par l'ajout d'un inifiniment petit `epsilon` va permettre de calculer `f(x"+"epsilon)` en une valeur hyperréelle stratifiée c'est à dire appartenant à `RR"+"epsilonRR"+"epsilon^2RR"+"epsilon^3RR"+..."` que l'on peut par la suite tronquer à l'ordre que l'on veut. Le remplacement de l'arbitrairment petit `h` par l'infiniment petit `epsilon` nous permet de tronquer la série à un ordre arbitraire en ajoutant cet ordre :

`f= a_0+O(epsilon)`
`f= a_0+a_1x + O(epsilon^2)`
`f= a_0+a_1x + a_2x^2 + O(epsilon^3)`
...

Remarquez attentivement que la fonction `f` appliqué à un réel produit un réel :

`x in RR`
`f(x) in RR`

Tandis que l'extension `f(x+epsilon)` est un hyperréel stratifié :

`f(x"+"epsilon) in RR"+"epsilonRR"+"epsilon^2RR"+"epsilon^3RR"+...`

11. Opérateur de différentialisation `d` (introduction)

On considère une évolution infinitésimale du système. Le système étant analytique, chaque variable d'état du système va subire une variation infinitésimale.

L'élément différentiel `dx` désigne une variation infinitésimale de `x`. Autrement dit, la variable `x` contient un réel appartenant à `RR`, tandis que la variable `dx` contient un infinitésimal du premier ordre c'est-à-dire appartenant à `epsilonRR`. Et cette troncature supprimant de `dx` les valeurs d'ordre inférieurs à `epsilon` ne constitue qu'une convention comme l'est la définition d'`epsilon`. Si de plus `x` est une variable d'état libre alors `dx` forme une variable d'état infinitésimale du premier ordre également libre.

`x in RR`
`dx in epsilonRR`

La différentialisation `d` a une priorité syntaxique posée plus élevée que les opérations `"+ - * / ^ ()"`, faisant que `du^2` est égale à `du"·"du` et non à `d(u^2)`, et appliqué plusieurs fois de suite, elle se compose en une puissance `d(d(du))= d^3u`. Ainsi `d^3` est l'opérateur qui différentialise trois fois de suite.

`du"·"du=du^2`

`d(d(du))= d^3u`

L'expression d'un calcul quelconque correspond à une variable d'état anonyme (ou si vous voulez, dont le nom correspond à l'expression de son calcul). Ainsi l'opérateur `d` peut s'appliquer à une epression quelconque interprété comme une variable d'état anonyme.

Considérons le neurone `u"←"x,y`. L'opérateur de différentialisation `d` appliqué à `u` va crée une variable `du` proportionnelle au vecteur `(dx,dy)` et totalement dépendante de `x,y` ce qui se note par les neurones induits suivant : `du"←"x,y` et `u'"←"x,y`, mais également `d^2u"←"x,y` et `u''"←"x,y`, etc..

La différentialisation `d` a une priorité syntaxique posée plus élevée que l'appel de fonction :

`u"←"x,y`

`du(v,w) != d(u(v,w))`

`du(v,w) = (du)(v,w) = (du)(x"="v,y"="w) = ( d(u(x,y)) )(x"="v,y"="w)`

`du(v,w)` est la différentielle de la fonction `x,y|->u(x,y)` appliquée au point `(v,w)`. Tandis que `d(u(v,w))` est la différentielle de la composition de fonction `u(v,w)` défini sur un ensemble de racines de `v` et `w`.

Sauf à quelques rares exceptions où cela est mentionné explicitement, on n'utilisera pas de variable nommée autre que réel, faisant qu'une expression différentielle du `n`-ième ordre apparaitra toujours avec `n` opérateurs de différentialisation. Par exemple la valeur `dxdydzd^2t` sera du `5`ième ordre c'est à dire appartiendra à `epsilon^5RR`.

Il n'est pas forcement opportun de vouloir définir complètement cet élément différentielle `du`, car déjà la signification de la valeur réel `u` dépasse la réalité physique qui ne contient pas cet infini informationnel des nombres réels. Il s'agit d'un modèle qu'on applique pour simuler le monde. Et on ne fait, qu'approcher la réalité. Néanmoins il existe des propriétés portées par l'opérateur de différentialisation noté `d`, qui peuvent s'appliquer à d'autres structures mathématiques pouvant prétendrent refléter davantage la réalité. C'est pourquoi, on s'en tient à le définir dans un cadre plus général mais incomplet, qui est une induction faite en ne gardant que quelques propriétés jugées fondamentales.

12. La différentialisation `d`

Considérons une variable d'état `f` dépendant totalement d'une variable d'état `x` ce qui se note par le neurone `f"←"x`. La fonction évoquée `f(".")` est analytique. En chaque point `x` de son domaine de définition, la fonction se développe en une série de Taylor autour de `x` convergente sur un voisinage. C'est l'équation au voisinage de `x` à laquelle obéit toute variable `f` dépendante totalement de `x` :

  `f"←"x`

  `h` de norme arbitrairement petite.

  `f(x"+"h)=f+f’h+(f’’)/2h^2 +(f’’’)/(3!)h^3+...`  

  `f(x"+"h)=sum_n (f^("("n")"))/(n!) h^n`

L'extension du corps des réels s'obtient par l'ajout de l'infiniment petit `epsilon`. La variable `dx` appartient par définition à `epsilonRR` et il en est de même pour la variable `df`. Cette extension du corps des réels va permettre de définir formellement `f(x"+"dx)` en une valeur hyperréelle appartenant à `RR"+"dxRR"+"dx^2RR"+"dx^3RR"+..."`. Par définition, nous avons :

  `dx ∈ epsilonRR`
  `df ∈ epsilonRR`
  `f(x"+"dx)∈RR"+"dxRR"+"dx^2RR"+"dx^3RR"+..."`  

La définition algébrique de l'opérateur `d` appliqué à la variable d'état `f` est alors la suivante : 

  `f←x`

  `df = f(x"+"dx) - f + O(dx^2)`
 

Le terme `+O(dx^2)` signifie que l'on néglige les composantes en `dx^2` ainsi que les suivantes, afin que  `df "∈" epsilonRR`. Cela reste rigoureux car ce sont des ordres différentiels plus petits. Et cela correspond à la définition analytique classique du passage à la limite dans `RR`  :

  `f’=lim_(h->0)(f(x"+"h)-f)/h`  

  `df=f’dx`

Ainsi `df` possède deux dépendances, il dépend de `x` ce qui se note par le neurone induit `df←x`, et il dépend de `dx` par le facteur de proportionalité `f’`. Puis, l'expression `f(x"+"dx)` constitue un nouveau type de variable d'état, une variable d'état dont la valeur est un hyperréel appartenant à `RR"+"dxRR"+"dx^2RR"+"dx^3RR"+..."`. En calculant `f(x"+"dx)`, on obtient l'équation locale en `x` à laquelle obéit toute variable d'état dépendante totalement de `x` :

  `f←x`

  `f(x"+"dx) = f+f’dx+(f’’)/2dx^2+(f’’’)/(3!)dx^3+...`

  `f(x"+"dx) = sum_n f^("("n")")/(n!) dx^n`

Avec comme convention d'écriture, ce qui découle des neurones : `f"="f(x)` et `f’"="f’(x)` ..., et `f^((n))"="f^("("n")") (x)`. Puis avec la convention suivante `0! "=" 1` et `f^("("0")") "=" f`. Et pour la somme, l'utilisation d'une variable d'indice de même nom `n` masquant la borne `n` dans la partie itérée. L'équation locale traduit l'équation au voisinage en remplaçant l'arbitrairement petit `h` par l'infiniment petit `dx`. Les dérivée sont définies formellement comme suit :

`df=f’dx` `f’ = (df)/dx` `f’ = (f(x"+"dx)-f)/dx + O(dx)`
`d^2f=f’’dx^2` `f’’ = (d^2f)/dx^2` `f’’ = (f’(x"+"dx)-f’)/dx + O(dx)`
`d^3f=f’’’dx^3` `f’’’ = (d^3f)/dx^3` `f’’’ =(f’’(x"+"dx)-f’’)/dx + O(dx)`
`d^nf=f^("("n")")dx^n`         `f^("("n")") =(d^(n)f)/dx^(n)`            `f^("("n")") = (f^("("n"-"1")")(x"+"dx)-f^("("n"-"1")"))/dx + O(dx)`       

Ainsi, l'équation locale peut s'écrire :

`f←x`

`f(x"+"dx) = f+df+(d^2f)/2+(d^3f)/(3!) +...` 

`f(x"+"dx) = sum_n (d^n f)/(n!)`

Quelque soit un réel `r`, nous avons :

`f←x`

`f=f(x"+"dx)+O(df)`

`f=f(x"+"dx)+O(epsilon)`

`f=f(x"+"rdx)+O(epsilon)`

Autrement dit : La translation de `x` d'une valeur infiniment petite ne change la valeur de `f` que d'une valeur infiniment petite.

`df = df(x"+"dx)+O(d(df)))`

`df = df(x"+"dx)+O(epsilon^2)`

`df = df(x"+"rdx)+O(epsilon^2)`

Autrement dit : La translation de `x` d'une valeur infiniment petit ne change la valeur de `df` que d'une valeur infiniment petite du deuxième ordre.

`df = f(x"+"dx)-f + O(epsilon^2)`

`df = f(x"+"rdx "+"dx)-f(x"+"rdx) + O(epsilon^2)`

`f’ = (df)/dx = (f(x"+"dx)-f)/dx + O(epsilon)`

 

`d(df) = df(x"+"dx)-df + O(d(d(df)))`

`d^2f = df(x"+"dx)-df + O(epsilon^3)`

`d^2f = f(x"+"2dx)-f(x"+"dx) - (f(x"+"dx)-f) + O(epsilon^3)`

`d^2f = f(x"+"2dx)-2f(x"+"dx) +f + O(epsilon^3)`

On translate `x` de `"-"dx` pour simplifier l'expression :

`d^2f = f(x"+"dx)- 2f +f (x"-"dx)+ O(epsilon^3)`

 

`d^3f = df(x"+"dx)- 2df +df (x"-"dx)+ O(epsilon^4)`

`d^3f = (f(x"+"2dx)-f(x"+"dx)) - 2((fx"+"dx)-f) +(f-f (x"-"dx))+ O(epsilon^4)`

`d^3f = f(x"+"2dx) - 3f(x"+"dx) +3f - f(x"-"dx)+ O(epsilon^4)`

 

`d^4f = df(x"+"2dx) - 3df(x"+"dx) +3df - df(x"-"dx)+ O(epsilon^5)`

`d^4f = (f(x"+"3dx)-f(x"+"2dx)) - 3(f(x"+"2dx)-f(x"+"dx)) + 3(f(x+dx)-f) - (f-f(x"-"dx))+ O(epsilon^5)`

`d^4f = f(x"+"3dx)- 4f(x"+"2dx) + 6f(x"+"dx) - 4f + f(x"-"dx)+ O(epsilon^5)`

On translate `x` de `"-"dx` pour simplifier l'expression :

`d^4f = f(x"+"2dx)- 4f(x"+"dx) + 6f- 4f(x"-"dx) + f(x"-"2dx)+ O(epsilon^5)`

On reconnait dans la disposition des coefficients, le triangle de Pascal.

13. La différentialisation partielle

Considérons une variable d'état `f` qui dépend totalement des variables `x` et `y`. On le précise en déclarant le neurone `f"←"x,y`. La fonction ainsi évoquée `f(".,.")` est analytique, et donc se développe autours du point `(x,y)` en série entière à deux variables, convergente sur un voisinage de `(x,y)`. C'est l'équation au voisinage de `(x,y)` à laquelle obéit toute variable d'état `f` totalement dépendante de `x` et `y` :

  `f"←"(x,y)`

  `h,k` de norme arbitrairement petite.

  `f(x"+"h,y"+"k)=sum_(i,j) a_("("i,j")") h^i k^j`

Cette équation au voisinage est remplacée par l'équation locale suivante :

  `f"←"(x,y)`

  `f(x"+"dx,y"+"dy)=sum_(i,j) a_("("i,j")") dx^i dy^j`

Les constantes `a_("("i,j")")` sont les coefficients de la série entière. C'est le développement de `f` autour du point `(x,y)` en la série de Taylor. La définition de l'opérateur `d` appliqué à la variable d'état `f` peut se décrire ainsi : 

`df = f(x"+"dx,y"+"dy)-f + O(epsilon^2)`

Comme la fonction possède plusieurs variables, la différentialisation de la fonction `f(x"=.",y"=.")` peut être partielle selon son premier argument `x`, ou partielle selon son second argument `y`, ou bien totale, définissant ainsi trois opérateurs de différentialisation `del_x, del_y, d` dont les définitions sont :

`del_xf= f(x"+"dx,y)-f + O(epsilon^2)`
`del_yf= f(x,y"+"dy)-f + O(epsilon^2)`
`df= f(x"+"dx,y"+"dy)-f + O(epsilon^2)`

Et cela correspond à la définition analytique classique du passage à la limite dans `RR`. Il n'y a pas de symbole compacte pour désigner la dérivée partiel de `f` selon `x`, elle se note en appliquant l'opérateur de dérivée partielle selon `x` noté :

`del/(delx)`

Et appliqué à `f` cela se note de trois façons possibles :

`(del_x f )/dx= del/(delx) f = (del f)/(delx) `

`(del f)/(del x) =lim_(h->0)(f(x"+"h,y)-f)/h`               `del_xf = (del f)/(del x) dx`  
`(del f)/(del y) =lim_(h->0)(f(x,y"+"h)-f)/h` `del_yf = (del f)/(del y) dy`  

Par convention nous avons :

`x ∈ RR`
`y∈ RR`
`f∈ RR`
`dx ∈ epsilonRR`
`dy∈ epsilonRR`
`df ∈ epsilonRR`
`del_x f ∈epsilonRR`
`del_y f ∈ epsilonRR`
`f(x"+"dx, y)∈RR"+"epsilonRR"+"epsilon^2RR"+"epsilon^3RR"+..."`  

`f(x, y"+"dy)∈RR"+"epsilonRR"+"epsilon^2RR"+"epsilon^3RR"+..."` 
`f(x"+"dx, y"+"dy)∈RR"+"epsilonRR"+"epsilon^2RR"+"epsilon^3RR"+..."` 

Développons les calculs de `df` de `del_xf` et de `del_yf` à partir de la série de Taylor en ne gardant qu'une somme de termes d'ordre supérieurs ou égals à `O(epsilon)` :

`del_xf= f(x"+"dx,y)-f+ O(epsilon^2)`
`del_xf= a_(0,0)+a_(1,0)dx - a_(0,0)`
`del_xf= a_(1,0)dx`

`del_yf= a_(0,1)dy+ O(epsilon^2)`
`del_yf= a_(0,0)+a_(0,1)dy - a_(0,0)`
`del_yf= a_(0,1)dy`

`df= f(x"+"dx,y"+"dy)-f+ O(epsilon^2)`
`df= a_(0,0)+a_(1,0)dx+a_(0.1)dy - a_(0,0)`
`df= a_(1,0)dx+a_(0.1)dy`

Ainsi `df` possède 4 dépendances, il dépend de `x` et `y` ce qui se note par le neurone induit `df←x,y`, et il dépend de `dx` et `dy ` linéairement. Ainsi `del_xf` possède 4 dépendances, il dépend de `x` et `y` ce qui se note par le neurone induit `del_xf←x,y`, et il dépend de `dx` par un facteur de proportionnalité. Et de même pour `del_yf`. Puis, on remarque la propriété suivante :

`df= del_xf + del_yf`

`df= (del f)/(del x)dx + (del f)/(dely) dy`

Et cette propriété s'applique pour les fonctions à trois arguments et plus :

`f←(x,y,z)`

`df = del_xf + del_yf + del_zf`

`df= (del f)/(del x)dx + (del f)/(dely) dy + (del f)/(delz) dz`

La différentialisation partielle ne peut se définir que par rapport à une différentialisation totale, d'où la nécessité de choisir le lien de dépendance totale `f"←"x,y,z` sans quoi la définition est incohérente. C'est pourquoi on rappel toujours le liens de dépendance totale utilisé pour les définir :

`df=del_xf+del_yf+del_zf`   avec   `f"←"x,y,z`

On trouve dans la littérature également des différentielles partielles mentionnant en indice après un symbole "|" les autres variables de la différentielle totale posées comme étant constantes :

`df=del_(x|y,z)f+del_(y|x,z)f+del_(z|x,y)f`

Ou encore :

`df=(del_x f)_(y,z)+(del_y f)_(x,z)+(del_z f)_(x,y)`

14. Les fonctions exponentielles

Les réels se construisent à partir de l'unité `1` et de la somme `+` définie comme opération associative commutative libre, ce qui engendre le semi-groupe `NN^"∗"`, auquel on ajoute le passage à l'opposé représenté par la fonction unaire `x|->-x` ce qui engendre l'anneau `ZZ`, auquel on ajoute le passage à l'inverse représenté par la fonction `x|->1"/"x` où le produit reste associatif, commutatif et distributif par rapport à l'addition, ce qui engendre le corps `QQ`, qui est ordonné et que l'on complète selon cette métrique en le corps ordonné complet `RR`.

La complétion de `QQ` en `RR` passe de l'infini dénombrable à l'infini continu. La génèse est incompatible avec l'infini, et donc d'autant plus avec l'infini continu. Cet infini continu est une construction abstraite, un artifice mathématique. Il est pondéré par la restriction analytique, une restriction qui consiste à n'utiliser que des fonctions analytiques, c'est à dire continues, indéfiniment dérivables et égales à des développement de Taylor convergents sur un voisinnage en tout point du domaine de définition.

La définition de la multiplication dans `ZZ` puis le passage de `ZZ` à `QQ`, c'est ainsi que l'addition engendre la multiplication. Il est alors opportun de s'interesser aux fonctions exponentielles, c'est à dire aux fonctions `f` dans `RR` satisfant la propriété suivante :

`AA(x,y) "∈" RR^2, f(x"+"y)=f(x)f(y)`

Une telle fonction `f` établit un isomorphisme entre deux structures de corps. Le corps des réels, `(RR,"+","∗",0,1)`, muni de son addition, `"+"`, de sa multiplication, `"∗"`, de son zéro, `0`, et de son un, `1`. Et le corps multiplicatif des réels strictements positifs `(RR_"+"^"∗","∗","∙",1,b)` de base `b`, muni de son addition `"∗"`, de sa multiplication `"∙"`, de son zéro, `1`, et de son un, `b`, qui constitue la base de l'exponentielle `b"="f(1)` :

`f : (RR,"+", 0, "∗", 1) -> (RR^"∗+","∗", 1, "∙",b)`

`AA(x,y) "∈" RR^2, EE(u,v) "∈" RR^"∗+2",`

`0|->1`
`1|->b`
`x|->u`
`y|->v`
`x"+"y|->u"∗"v`
`x"∗"y|->u"∙"v`

`f(0)=1`
`f(1)=b`
`f(x)=b^x`
`u"∙"v = u^(f^("-"1)(v))`

Cela se démontre comme suit : L'isomorphsisme entraine une succession d'évidences.

`1=f(0)=f(x-x)=f(x +(-x))=f(x)f(-x)`

`f(-x)=1/f(x)`

`f(x-y)=f(x)/f(y)`

La fonction `f` est continue par principe. En effet, on s'aventure dans le monde du continu en se restreingnant aux seuls fonctions analytiques.

`AAn "∈" NN`, `AAq "∈" NN^"∗+"`,

`f(n"∗"x)=f(x)^n`

`f(x)=f(n"∗"(x"/"n))=f(x"/"n)^n`

`f(x"/"n)=f(x)^(1"/"n)`

`f((n"/"q)"∗"x)=f(x)^(n"/"q)`

et comme `f` est continue, `f(x"∗"y)=f(y)^x=f(y"∗"x) =f(x)^y`, et donc :

`f(x)=f(x"∗"1)=f(1)^x=b^x`

`u"∙"v = f(x"∗"y)=f(x)^y=u^(f^("-"1)(v))= f(y"∗"x)=f(y)^x=v^(f^("-"1)(u))`

C'est ainsi que l'on définit l'élévation à la puissance :

`f(x)=b^x`

15. L'exponentielle

Lucas Willems part de l'hypothèse d'une fonction `sf"exp"` analytique, égale à sa dérivé, et envoyant `0` sur `1`  :

`sf"exp"(x) = a_0+a_1x+a_2x^2+a_3x^3+a_4x^4+...`

`sf"exp"’=sf"exp"`

`sf"exp"(0) = 1`

Il en déduit :

`sf"exp"(0) = a_0`  donc  `a_0=1`

`sf"exp"(x) = a_0+a_1x+a_2x^2+a_3x^3+a_4x^4 +...`

`sf"exp"’(x) = a_1+2a_2x+3a_3x^2+4a_4x^3 +5a_5x^5+...`

`a_0=a_1`
`a_1=2a_2`
`a_2=3a_3`
`a_3=4a_4`
...
`a_(n"-"1)=na_n`

Et donc :

`AAn "∈" NN"*",  a_n=(a_(n"-"1))/n`

`a_n = (a_(n"-"1))/n = (a_(n"-"2))/((n"-"1)n) = (a_(n"-"3))/((n"-"2)(n"-"1)n) = (a_0)/(1*2*3...(n"-"2)(n"-"1)n)`

`a_n = 1/(n!)`

Ainsi dans une structure de corps, la seul fonction analytique qui est égale à sa dérivé et qui envoit `0` sur `1` est la fonction exponentiel `sf"exp"` définie comme suit avec les conventions habituelles :

`sf"exp"(x)=e^x`

`e^x = 1+x+(x^2)/2 + (x^3)(3!) + (x^4)/(4!) + ...`

`e^x = sum_n (x^n)/(n!) dx^n`

Considérons maintenant une fonction analytique `f` vérifiant `f(x"+"y)=f(x)f(y)` pour tout `x` et `y`. On en déduit que :

`f(x) = f(0"+"x)=f(0)f(x)`

`f(0)"="1`

Puis on calcul la dérivée `f'` :

`f'(x)= (f(x+dx)-f(x))/dx + O(x)`

`f'(x)= (f(x)f(dx)-f(x))/dx + O(x)`

`f'(x)= f(x)(f(dx)-1)/dx + O(x)`

`f'(x)= f(x)(f(dx)-f(0))/dx + O(x)`

`f'(x)= f(x)f'(0) + O(x)`

`f'(x)= f(x)f'(0)`

Ainsi une fonction analytique qui transforme l'addition en multiplication est une fonction exponentiel `x|->b^x`  définie comme suit avec les conventions habituelles :

`b^x = ...`

 

 

16. La notion d'opérateur

L'analyse a fortement recours aux espaces de fonctions, une structuration abstraite qui s'inscrit bien dans la démarche d'analyse, usant d'une logique savante de variables imbriquées, quantifiées alternativement universellement puis existentiellement, et des métriques apparaissant sous la main, se développant dans des démonstrations alambiquée à n'en plus finir... Nous proposons une autre démarche qui porte une intuition plus parlante sur la réalité, qui peut davantage séduire les néophytes et ainsi révéler ceux qui s'investiront avec ardeur dans ces mises en pratique et ces recherches. Déjà la structure des réels dépasse largement la réalité en terme de quantité d'information. C'est pourquoi nous ne retenons que quelques propriétés de la structure des réels et non sa nature assurement étrangère à la réalité. Nous ne proposerons pas de solution achevée. Et d'ailleurs dans ce domaine physique rien n'est achevé, le monde est-il achevé ?

La notation du physicien a remplacé la fonction par la variable d'état d'un système, un système qui globalise toutes les dépendances entre variables d'état. Et il le fait par l'intermédiaire d'un calcul assez rudimentaire, celui de série entière, n'utilisant que la somme et le produit, et une métrique pour définir la valeur de la série convergente, que l'on algébrise en procédant à l'ajout de l'infiniment petit `epsilon` par extension élémentaire. Vous aurez remarqué que la division n'est même pas évoquée et qu'elle n'est donc pas indispensable partout.

Puisque nous utilisons des variables d'état et non des fonctions, les opérateurs que nous concevons agiront sur ces variables, reconnaissant que l'état du système est quelque chose de beaucoup plus concret, bien que moins achevé, qu'une fonction mathématique. La variable d'état transporte dans sa nature les liens analytiques qu'elle entretient avec les autres variables d'état.

Le plus bel exemple que nous ayons sous la main d'un tel opérateur est celui de différentialisation `d`. Mais l'exemple ne définit pas les limites de ce que cela pourrait-être. On ne définira pas les limites qu'il peut atteindre mais juste les propriétés qu'il doit satisfaire. L'opérateur agit sur une variable d'état, et remarquez bien, qu'il n'agit pas sur la valeur de la variable d'état mais bien sur la variable d'état elle-même et ses relations qu'elle entretient avec les autres variables d'état. L'opérateur agit sur le système, soit en révélant une nouvelle variables d'état déjà préexistante en soi mais en lui donnant un nom, soit en modifiant le système. Considérons pour l'instant les seuls opérateurs révélant de nouvelle variable d'état. L'opérateur `lambda` appliqué à une variable d'état `x` produit une nouvelle variable d'état `lambdax`.

L'idée consiste alors à intégrer ces opérateurs dans la structure de calcul utilisée, qui utilise l'addition et la multiplication. Et le moyen le plus simple consiste à les ajouter par extension élémentaire avec la propriété que le produit d'un opérateur et d'une variable traduise l'application de l'opérateur sur la variable. La structure résultante doit redevenir homogène c'est pourquoi la variable elle-même devient un opérateur qui appliqué à une autre variable produit une nouvelle variable d'état qui est égale au produit des deux variables en question. En faisant ce choix, on façonne ce qu'est un opérateur. On garde l'associativité du produit que l'on identifie à l'associativité de la composition de fonctions. Mais la priorisation de l'appel ce qui rompt l'associativité qu'en apparence. Ainsi, étant donné trois variables d'états `x,y,z`, chacune de ces variables d'état est un opérateur qui consiste à multiplier par la variable d'état en question, et le produit `xyz` désigne la composition d'opérateurs `x"∘"y"∘"z` c'est à dire l'opérateur multipliant par `z` puis par `y` puis par `x`.

Puis la structure résultante devra respecter les propriétés de la structure de calcul initiale concernant l'addition. L'addition devra être associative, commutative, admettre `0` comme élément neutre, et la fonction `-(".")` comme fonction opposée. La structure résultante gardera l'associativité du produit qui est vérifiée par la composition de fonction. Par contre la structure résultante ne gardera la commutativité et la distributivité du produit sur l'addition ainsi que l'existence de l'inverse, que pour certains opérateurs. Les deux premiers opérateurs que nous définissons dans cette logique sont la différentialisation `d` et l'exponentiel `sf"exp"` notée `x|->e^x`.

`f←(x)`

`df = f’dx`

`d^2f = f’’dx^2`

`d^nf = f^("("n")") dx^n`

`f(x"+"dx) = f+df+(d^2f)/2+(d^3f)/(3!) +...`  

`f(x"+"dx) = (1 +d+(d^2)/2+(d^3)/(3!) +...)f`  

`f(x"+"dx) =e^d f`

Si maintenant nous voulons varier `dx` en le multipliant par un réel `a`. Cela revient à faire un changement de variable `y = ax` et à reformuler `f` fonction de `y`.

 

 

 

---- 19 mai 2023 ----

 

 



 

Dominique Mabboux-Stromberg

 

Précédent
Suivant