Le calcul différentiel, le calcul des dérivées et des tangentes, nous amène tout naturellement à l'étude des transformations linéaires. Aussi, il est naturel que du calcul différentiel nait l'étude des transformations linéaires et des espaces vectoriels.
On commence par étudier une fonction analytique à deux variables et on établit sa série de Taylor. On calcule les dérivées avec un logiciel de calcul formel, ou bien directement avec le site web https://fr.symbolab.com/solver/
Considérons une variable d'état `f` qui dépend uniquement de deux variables `x,y`. Cela se note par l'unique neurone suivant :
`f←(x,y)`
À l'ordre d'`epsilon` tout est linéaire. La fonction `f` de `x` et `y` est localement linéaire ce qui correspond à l'équation du plan tangent à `f`. Notons les coefficients de linéarité respectivement par `a` et `b`. Nous avons :
`AA (u,v) "∈" RR, f(x"+"uepsilon,y"+"vepsilon)=f+auepsilon+bvepsilon+o(epsilon)`
Puis il est judicieux de notez la variation infinitésimale arbitraire `uepsilon` par l'élément différentiel `dx`, puisqu'il s'agit d'une variation de `x`, et de notez la variation infinitésimale arbitraire `vepsilon` par l'élément différentiel `dy`, puisqu'il s'agit d'une variation de `y`. Somme toute, une restriction des libertés des paramètres qui reste seulement soumis au seul déterminisme du système, et qui n'a donc pas d'effet :
`f(x"+"dx,y"+"dy)=f+adx+bdy+o(epsilon)`
Le coefficient de linéarité en `dx` représenté ici par `a` définit la dérivée partielle selon `x` de `f` que l'on note `f’_x`. De même de coefficient de linéarité en `dy` représenté ici par `b` définit la dérivée partielle selon `y` de `f` que l'on note `f’_y` :
`f(x"+"dx,y"+"dy)=f+f’_xdx+f’_ydy+o(epsilon)`
Ces dérivées partielles se définissent analytiquement et algébriquement comme suit :
`f’_x=lim_(r->0) (f(x"+"r,y)-f)/r`
`f’_y=lim_(r->0) (f(x,y"+"r)-f)/r`
`f’_x= (f(x"+"dx,y)-f)/dx +o(1)`
`f’_y= (f(x,y"+"dy)-f)/dy +o(1)`
Dans le cas de l'unique neurone `f←(x,y)`, l'élément différentiel partielle de `f`, qui mesure un effet `delf`, est la variation infinitésimale de `f` qui se produit lorsque la variable considérée, `x` par exemple, varie de façon infinitésimale sans que l'autre variable contribuant au calcul de `f` ne varient.
Et de l'autre coté, l'élément différentiel partiel de `x` qui mesure la cause `delx`, est la variation infinitésimale de `x` que l'on impose en maintenant fixe l'autre variable contribuant au calcul de `f`. Ainsi l'espression `delf` ne peut être utilisé séparément de l'expression `delx` ou bien `dely` qui sont la cause de `delf`. L'écriture `delf` redevient pérenne si on précise la cause en notant `delf_x` ou `delf_y`, c'est pourquoi les dérivées partielles se notent ainsi :
`delf_x = (delf)/(delx)dx`
`delf_y = (delf)/(dely)dy`
Et remarquez que dans cette évolution où l'on impose une variation `delx` en fixant `y`, l'expression `dx` qui est une variable d'état et qui est déterminée, désigne ce `delx`.
---- 19 novembre 2024 ----
L'expression `delf"/"delx` n'est autorisée que s'il n'y a qu'un seul neurone déclaré de tête `f` et possédant `x` parmi ses racines, ou alors si l'équation dans laquelle elle se trouve évoque sans ambiguité le neurone concerné.
Les expression `delf` et `delx` n'ont pas de sens pris isolément et ne définissent pas de variable d'état d'ordre `epsilon`. Parcontre la dérivée partielle `delf"/"delx` multipliée par la variation infinitésimale totale `dx` désigne une variable d'état appelée la différentielle partielle de `f` par rapport à `x`. C'est la définition de l'élément différentiel partiel de `f` selon `x`, que l'on note par `del_xf` (Voir question posée à ChatGPT.)
`del_xf=(delf)/(delx) dx`
Et s'il y a lieu de préciser les variables imposées comme constantes dans le cas où il y aurait plusieurs neurones possibles, par exemple :
`del_({x|y})f=((delf)/(delx))_(y) dx`
`del_({x|u,v})f=((delf)/(delx))_(u,v) dx`
Le premier terme de la série de Taylor coïncide avec l'équation locale liant la fonction avec ses dérivées partielles. Considérons une fonction `f` à trois variables :
`f←(x,y,z)`
`f(x"+"dx,y"+"dy,z"+"dz)=f+(delf)/(delx)dx+(delf)/(dely)dy+(delf)/(delz)dz+o(epsilon)`
`f(x"+"dx,y"+"dy,z"+"dz)=f+f’_xdx+f’_ydy+f’_zdz+o(epsilon)`
S'il y a plusieurs neurones de tête `f`, l'écriture se perfectionne pour lever les ambiguités et discerner les dérivées partielles selon le neurone concerné. Par exemple :
`f←(x,y)`
`f←(x,u,v)`
`f(x"+"dx,y"+"dy)=f+((delf)/(delx))_(y)dx+(delf)/(dely)dy+o(epsilon)`
`f(x"+"dx,y"+"dy)=f+ f’_({x|y})dx+f’_ydy+o(epsilon)`
`f(x"+"dx,u"+"du,v"+"dv)=f+((delf)/(delx))_(u,v)dx+(delf)/(delu)du+(delf)/(delv)dv+o(epsilon)`
`f(x"+"dx,u"+"du,v"+"dv)=f+f’_({x|u,v})dx+f’_udu+f’_vdv+o(epsilon)`
Le déterminisme du système peut s'interpréter comme une évolution déterminée selon une variable de temps `t` qui peut être inconnue. L'élément différentiel `df` traduit alors la variation infinitésimale de `f` en fonction de la variation infinitésimale de `t` :
`df=f(t"+"dt)-f+o(epsilon)`
Et on remarque que `df` ne dépend pas seulement de `t` mais également de `dt` et de façon linéaire à `dt` selon un facteur qui est la dérivée de `f` noté `f’`, et il s'agit d'une égalité hyperréelle exacte :
`df=f’dt`
Notez que dans une évolution complétement déterminé, tout dépend de `t`, et donc `dt` dépendant de `t`.
Lorsque `t` n'est pas connu, `f’` n'est pas connu. D'une façon générale, le système contient une information supplémentaire à son seul déterminisme, qui précise un réseau de neurones déclarant des dépendances entre variables d'état. Par exemple le neurone `f"←"(x,y)` précise que `x` et `y` déterminent `f`, rendant possible la définition des dérivées partielles de `f` selon `x` et selon `y` que l'on note respectivement `f’_x` et `f’_y`. La définition de ces dérivées partielles est relative à ce neurone.
---- 19 novembre 2024 ----
S'il existe un deuxième neurone calculant `f` et ayant le même ensemble de racines `x` et `y` alors du fait que se sont des fonctions analytiques, elles coïncident forcement. Parcontre si le neurone est basé sur un ensemble distinct mais non disjoint de racines tel que `x` et `u` et `v`. Dans ce cas, la dérivée partielle de `f` selon `x` est ambigüe puisqu'on a pas précisé sur quelle fonction elle s'applique. Mais si on précise que les autres variables restent constantes dans le calcul de la dérivée partielle, on précise alors l'ensemble des racines du neurone concerné et donc on précise le neurone concerné et donc on précise la fonction sur laquelle on veut calculer la dérivée partielle. La notation s'enrichie. il ne suffit plus de désigner la variable qui varie mais il faut désigner les autres variables qui ne varient pas, pour ainsi préciser le neurone. Considérons par exemple les deux neurones suivants :
`f←(x,y)`
`f←(x,u,v)`
Dans l'absolu, le système étant déterminé, la dérivé de `f` notée `f’` a toujours une signification précis, c'est la drivée de `f` selon le temps même si le temps est inconnu. La dérivé de `f` selon `u` n'a pas d'ambiguité non-plus et peut donc être notée `f’_u`. Par contre la dérivée de `f` selon `x` est ambigüe car elle peut s'appliquer à deux fonctions (ou neurones). Pour lever l'ambiguité, il faut préciser l'ensemble des racines du neurone concerné en énumérant les variables qui ne varient pas dans le calcul de la dérivée partielle. Il y a donc deux dérivées partielles de `f` selon `x` que l'on note `f’_({x|y})` et `f’_({x|u,v})`.
L'élément différentiel partielle de `f`, noté en terme de mesure physique résultante `delf`, est la variation infinitésimale de `f` lorsque la variable considérée, `x` par exemple, varie de façon infinitésimale sans que les variables fixes considérées ne varient. Et de l'autre coté, l'élément différentiel partielle en terme de mesure physique initiale, notée `delx`, est la variation infinitésimale de `x` que l'on impose en maintenant fixes les autres variables considérées. Ainsi ces expressions ne peuvent pas être notées séparement.
L'expression `((delf)/(delx))_(y)` s'applique au neurone `f"←"(x,y)` et se note `f’_({x|y})`
L'expression `((delf)/(delx))_(u,v)` s'applique au neurone `f"←"(x,u,v)` et se note `f’_({x|u,v})`
L'expression `delf"/"delx` n'est autorisée que s'il n'y a qu'un seul neurone déclaré de tête `f` et possédant `x` parmi ses racines, ou alors si l'équation dans laquelle elle se trouve évoque sans ambiguité le neurone concerné.
Les expression `delf` et `delx` n'ont pas de sens pris isolément et ne définissent pas de variable d'état d'ordre `epsilon`. Parcontre la dérivée partielle `delf"/"delx` multipliée par la variation infinitésimale totale `dx` désigne une variable d'état appelée la différentielle partielle de `f` par rapport à `x`. C'est la définition de l'élément différentiel partiel de `f` selon `x`, que l'on note par `del_xf` (Voir question posée à ChatGPT.)
`del_xf=(delf)/(delx) dx`
Et s'il y a lieu de préciser les variables imposées comme constantes dans le cas où il y aurait plusieurs neurones possibles, par exemple :
`del_({x|y})f=((delf)/(delx))_(y) dx`
`del_({x|u,v})f=((delf)/(delx))_(u,v) dx`
Le premier terme de la série de Taylor coïncide avec l'équation locale liant la fonction avec ses dérivées partielles. Considérons une fonction `f` à trois variables :
`f←(x,y,z)`
`f(x"+"dx,y"+"dy,z"+"dz)=f+(delf)/(delx)dx+(delf)/(dely)dy+(delf)/(delz)dz+o(epsilon)`
`f(x"+"dx,y"+"dy,z"+"dz)=f+f’_xdx+f’_ydy+f’_zdz+o(epsilon)`
S'il y a plusieurs neurones de tête `f`, l'écriture se perfectionne pour lever les ambiguités et discerner les dérivées partielles selon le neurone concerné. Par exemple :
`f←(x,y)`
`f←(x,u,v)`
`f(x"+"dx,y"+"dy)=f+((delf)/(delx))_(y)dx+(delf)/(dely)dy+o(epsilon)`
`f(x"+"dx,y"+"dy)=f+ f’_({x|y})dx+f’_ydy+o(epsilon)`
`f(x"+"dx,u"+"du,v"+"dv)=f+((delf)/(delx))_(u,v)dx+(delf)/(delu)du+(delf)/(delv)dv+o(epsilon)`
`f(x"+"dx,u"+"du,v"+"dv)=f+f’_({x|u,v})dx+f’_udu+f’_vdv+o(epsilon)`
---- 17 novembre 2024 ----
La dérivée de `f` comprend deux composantes que sont ces deux dérivées partielles :
`f’=(f’_x,f’_y)`
---- 11 novembre 2024 ----
deux opérateurs de dérivée partielle `del/(delx)` et `del/(dely)` comme suit :
On définit algébriquement deux opérateurs de dérivée partielle `del/(delx)` et `del/(dely)` comme suit :
`del/(delx)f = (f(x"+"dx,y)-f)/dx +o(1)`
`del/(dely)f = (f(x,y"+"dy)-f)/dy+o(1)`
Ces dérivées partielles constituent des nouvelles variables d'états dépendantes de `(x,y)`, et elles ont la propriété tangentielle, c'est à dire qu'à l'ordre d'epsilon la fonction `f` est linéaire dont le coefficient de linéarité est justement cette dérivée partielle. On note les dérivées partielles de deux manières :
`del/(delx)f = (delf)/(delx)`
`del/(dely)f = (delf)/(dely)`
----- 15-10-2024
Nous pouvons écrire cette linéarité locale sous forme vectorielle. Pour cela on définit les variables suivantes :
`vec x = ((x),(y))` `dvec x = ((dx),(dy))` `vec a = ((a_1),(a_2))`
`u"←"vec x`
`u(vec x+dvecx ) = u+veca"·"dvecx + veco(epsilon)`
La fonction `u` est localement linéaire et les coefficient de linéarité `veca` correspond à sa dérivée `vec (u’)` notée avec une flêche puisque c'est un vecteur :
`u(vec x+dvecx ) = u+vec(u’)"·"dvecx + veco(epsilon)`
`du` possède une particularité propre aux éléments différentiels, il est linéaire, proportionnel à `dvecx`, il satisfait l'égalité d'hyperréels exacte suivante :
`du = vec(u’)"·"dvecx`
Où `u’=du"/"dt` est appelé la différentielle ou la dérivée de `u`. Notez que le sens précis de la différentielle est ici la fonction `r |-> u’ r` tandis que la dérivée est le coefficient `u’`. Notez que `u(t"+"dt) - u` n'est pas égale à `du`, il l'est seulement à `o(epsilon)` près. Car `u(t"+"dt)` est un hyperréel stratifié n'ayant aucune raison d'appartenir à une seule strate.
`u in RR`
`dt in epsilonRR`
`du in epsilonRR`
`u(t"+"dt) in RR"+"epsilonRR"+"epsilon^2RR"+"epsilon^3RR"+...`
----15/10/2024 ----
Et on définie deux opérateurs de différentialisation `del_x` et `del_y` comme suit :
`del_x= dxdel/(delx)`
`del_y = dydel/(dely)`
Et nous avons les égalités hyperrreél exacte :
`del_xf= (delf)/(delx)dx`
`del_yf= (delf)/(dely)dy`
`del_xf = f(x"+"dx,y)-f +o(epsilon)`
`del_yf = f(x,y"+"dy)-f +o(epsilon)`
Et donc :
Les expressions `del, delx, dely, delf` n'ont pas de sens prises isolément. Seuls les calculs pouvant avoir le statut de variables d'état ont un sens, tel que :
La dérivée partielle de `f` selon `x` notée `(delf)/(delx)`
L'élément différentiel partiel de `f` selon `x` notée `del_xf = (delf)/(delx) dx`
L'élément différentiel de `x` notée `dx`
L'élément différentiel de `f` notée `df`
Noter qu'il est possible de définir la division de `df` par `dx` en fonction d'une base de variables commune. On considère que le système peut toujours être compléter de tel sorte que les variables d'états `df` et `dx` dépendent d'une même base de variables. Délors il est alors possible de calculer `df"/"dx` à chaque état de la base de variables communes. Néanmoins, comme nous n'avons pas encore complété notre système, ce calcul qui a bien le status de variable d'état reste indéveloppé.
On formalise l'utilisation d'opérateurs. Les opérateurs différentiels ainsi que les opérateurs de différentialisation ont les mêmes règles syntaxiques que l'opérateur de différentialisation `d`. Les différentielles partielles `del_x f` et `del_y f` constituent des variables d'états du système, et leur valeurs appartiennent à `epsilonRR`. Les égalités sont d'hyperréels exactes, c'est pourquoi lorsque l'on ne retient que le terme réel de l'hyperréel, on arrondie à `o(1)` près, où `o(1)` désigne l'ensemble des hyperréels négligeable devant `1`. Et lorsque l'on ne retient que le terme infinitésimal du premier ordre de l'hyperréel, on arrondie à `o(epsilon)` près, où `o(epsilon)` désigne l'ensemble des hyperréels négligeable devant `espilon`.
Rappelons que les différentielles du premier ordre sont des valeurs appartenant à `epsilon RR` tandis que le calcul d'une fonction d'état appliquée à un élément de `RR"+"epsilonRR` est une valeur appartenant à `RR"+"``epsilonRR"+"``epsilon^2RR"+"``epsilon^3RR"+"...`
`del_x f` représente la variation tangentielle de la fonction `f` au point `(x,y)` lorsque l'on fait bouger `x` de `dx` sans faire bouger `y`. Et `del_y f` représente la variation tangentielle de la fonction `f` au point `(x,y)` lorsque l'on fait bouger `y` de `dy` sans faire bouger `x`.
Par définition, la variable `df` est liée à `x,y,dx,dy`. Mais ce `df` possède une particularité propre aux différentiels, il est lié en plus de façon exacte d'une manière linéaire au vecteur `(dx,dy)`. C'est la définition d'une différentielle exacte appliqués à une fonction analytique à deux variables. Nous avons l'égalité d'hyperréels exacte suivante :
`df = adx"+"bdy`
Où `a` et `b` sont des coefficients réels définissant les dérivée partielles de `f` en `(x,y)` :
`a=(delf)/(delx)` et `b=(delf)/(dely)`
Et ces dérivées partielles peuvent être calculées si on connait la fonction analytique `f` fonction de `x` et de `y`. La définition de `df` se note alors par l'égalité hyperréelle exacte suivante :
`df = (delf)/(delx)dx + (delf)/(dely)dy`
Littéralement : La différentielle exacte de `f` est égale à la somme des différentielles partielles de `f`.
`df = del_xf + del_yf`
Et si on se restreint à n'opérer ques sur des applications analytiques dépendant de `x` et `y`, alors l'opérateur de différentialisation d est égale à la somme des opérateur de différentialisation partielle :
`d = del_x + del_y`
Considérons le cas particulier d'une fonction `f` dépendant de 3 variables `x, y, z` représentant une position dans l'espace. On regroupe ces trois variables en un vecteur position `vec r`. Ainsi nous avons :
`f←vec r`
`f←x,y,z``vec r = ((x),(y),(z))` `dvec r = ((dx),(dy),(dz))` `f=f(x,y,z)=f(vec r)`
Nous allons définir la dérivée de `f` selon la position `vecr`. Nous avons vu dans la partie précédente que la variation infinitésimale de `f`, appelée différentielle de `f`, vaut :
`df = del_xf + del_yf + del_zf `
`df = (delf)/(del x)dx+(delf)/(del y)dy+(delf)/(del z)dz`
On exprime cette combinaison linéaire par le produit scalaire suivant :
`df = (((delf)/(del x)),((delf)/(del y)),((delf)/(del z)))"·"((dx),(dy),(dz))`
Le premier vecteur exprime la dérivée de `f` selon le vecteur position `vec r`, le second vecteur exprime un vecteur de déplacement infinitésimal :
`(df)/(dvecr) = (((delf)/(del x)),((delf)/(del y)),((delf)/(del z)))` `dvecr=((dx),(dy),(dz))`
Dans le cas où `vec r` est un vecteur position a trois composantes nommées `x,y,z`, l'opérateur de dérivée selon `vecr` correspond à l'opérateur nabla `vec nabla` :
`d/(dvecr) = vec nabla = ((del/(del x)),(del/(del y)),(del/(del z)))`
La dérivée de `f` selon la position `vecr` est le vecteur des dérivées partielles de `f`, et il se note à l'aide du nabla, `vec nablaf` ou par l'expression `df"/"dvecr` :
`(df)/(dvecr) = vec nablaf `
`df = vec nablaf · dvecr`
`df = (df)/(dvecr) · d vecr`
Dans le cas général, on considère que le vecteur `vec r` transporte également l'information concernant le nom de ses composantes et on indice le nabla avec le vecteur `vec r`. Si `vecr` possède par exemple deux composantes `u,v`, l'opérateur de dérivée selon `vecr` s'exprime en utilisant le nabla indicé par le vecteur `vecr` ou préalablement déclaré comme se rapportant au vecteur `vec r` :
`vecr=((u),(v))`
`d/(dvecr) = vec nabla_(vec r) = ((del/(del u)),(del/(del v)))`
Remarquez que les différentielles partielles de `f` forme un vecteur, que l'on peut aussi mettre sous forme de produit vectoriel :
`((del_x f),(del_y f),(del_z f)) = (((delf)/(delx)dx),((del f)/(dely)dy),((del f)/(delz)dz))=((dx,0,0),(0,dy,0),(0,0,dz))(((delf)/(delx)),((del f)/(dely)),((del f)/(delz)))`
Si les opérateurs `vec del` et `vec nabla` sont prédéclarés comme relatifs au vecteur de position `(x,y,z)`, alors nous avons :
`vec del = ((del_x), (del_y),(del_z)) vec nabla = ((del/(delx)), (del/(dely)), (del/(delz))) D =((dx,0,0),(0,dy,0),(0,0,dz))`
`vec del f = D vec nablaf`
Le produit vectoriel se note parfois par absence de symbole.
La représentation des vecteurs sont forment de vecteur ligne ou de vecteur colone introduit une donnée supplémentaire qui est d'ordre calligraphique et qui est extérieur à la notion première de vecteur. Cette représentation des matrices et vecteur est d'origine anglaise. On revient à une définition native algorithmique du vecteur, de la matrice et du tenseur, qui n'introduit pas ce biais calligraphique. Le vecteur se présente alors comme une liste de composantes sans considération de verticalité ou d'horizontalité.
Etant donnée deux vecteurs `vec u`, `vec v`, le produit matriciel noté `vecu"×"vecv` est la matrice obtenue des produits croisés des composantes de `vec u` par les composante de `vec v`. C'est une liste de listes où chaque liste parcourt toutes les composantes de `vecv`. Exemple :
`vec u =(a,b)`
`vec v = (x,y,z)``vecu"×"vecv = "("(ax,ay,az),(bx,by,bz)")"`
Et comme par convention, on lit de gauche à droite et de ligne par ligne de haut en bas, la liste de listes est représentée par la matrice suivante :
`vecu"×"vecv = ((ax,ay,az),(bx,by,bz))`
On définit ainsi la matrice comme étant une suite de suites de même tailles. Puis on définit un objet plus général appelé tenseur qui est définit récursivement comme étant une suite de tenseurs de même taille, où la taille du tenseur est définit récurcivement comme étant une liste de tailles où le premier terme est la taille de la liste et où la liste des termes suivants est la taille des sous-tenseurs. La dimension du tenseur est égale à la taille de la taille du tenseur. Le tenseur peut être une matrice par exemple `M="("(x,y,z),(u,v,w)")"` est un tenseur de taille `(2,3)` et de dimension `2`. Le tenseur peut être un vecteur, par exemple `vec v=(x,y,z)` est un tenseur de taille `(3)` et de dimension `1`. Par convention le tenseur de dimension zéro est un élément.
Lorsque les vecteurs `vec u`, `vec v` sont de même dimension leur produit matriciel est une matrice carré c'est à dire un tenseur de taille `(n,n)` où `n` est la dimension du vecteur. Il apparait alors une caractéristique particulièrement simple qu'est la trace de la matrice, la somme des termes de la diagonale de la matrice, et qui constitue le produit scalaire :
`vec u · vec v = sf"trace"(vecu×vecv)`
Les fonctions analytiques ont une propriété remarquable et qui les définit, c'est qu'elles se développent autour de tout point de leur domaine de définition en une série entière, appelé série de Taylor, convergente sur un voisinnage. Considérons le neurone suivant :
`f"←"(x,y)`
La fonction analytique `f(".,.")` se développe au voisinage de tout point `(x,y)` de son domaine de définition, en une série entière appelée série de Taylor de `f` au voisinage de `(x,y)`. Grâce au hyperréels on peut formaliser le voisinage à l'aide de variable infinitésimales `dx,dy`
`f (x"+"dx,y"+"dy) = sum_(i,j) a_("("i,j")") dx^idy^j`
Les indices `i,j` parcours l'ensemble des entiers naturels. Les constante `a_("("i,j")")` sont les coefficients de la série entière appelée série de Taylor de `f` au point `(x,y)`. Le coefficient `a_("("i,j")")` est le produit d'un coefficient multinomiaux et d'une dérivée partielle :
`a_("("i,j")") = 1/(i!j!) (del^(i"+"j)f)/(delx^i del y^j)`
Si on ne garde que les termes du premier ordre :
`f (x"+"dx,y"+"dy) = f(x,y)+(delf)/(delx)dx+(delf)/(dely)dy+o(epsilon)`
`f (x"+"dx,y"+"dy) = f(x,y)+(((delf)/(delx)),((delf)/(dely)))"·"((dx),(dy))`
Les opérateurs de dérivée partielle commutent entre-eux, et donc les opérateurs de différentialisation partielle commutent aussi entre-eux, et ils se notent comme suit :
`del_xdel_xf = del_x^2f= (del^2f)/(delx^2)dx^2`
`del_xdel_yf = (del^2f)/(delxdely)dxdy`
`del_ydel_yf = del_y^2f= (del^2f)/(delydely)dxdy`
`del_xdel_xdel_xf = del_x^3f= (del^3f)/(delx^3)dx^3`
`del_xdel_xdel_yf = del_x^2del_yf= (del^3f)/(delx^2dely)dx^2dy`
`del_xdel_ydel_yf = del_xdel_y^2f= (del^3f)/(delxdely2)dxdy^2`
`del_ydel_ydel_yf = del_y^3f= (del^3f)/(dely^3)dy^3`
`del_x^idel_y^j f = (del^(i"+"j) f)/(delx^idely^j)dx^idy^j`
La série de Taylor s'écrit :
`f (x"+"dx,y"+"dy) = sum_(i,j) 1/(i!j!)del_x^idel_y^jf` `f (x"+"dx,y"+"dy) = f(x,y)+del_xf+del_yf+o(epsilon)`
`f (x"+"dx,y"+"dy) = f(x,y)+(del_x"+"del_y)f+(del_x^2f)/2"+"del_xdel_yf+(del_y^2f)/2 f+o(epsilon^2)`
`f (x"+"dx,y"+"dy) = f(x,y)+(del_x"+"del_y)f+1/2(del_x"+"del_y)^2f + 1/(3!)(del_x"+"del_y)^3f+o(epsilon^3)`
`f (x"+"dx,y"+"dy) = sum_n 1/(n!)(del_x"+"del_y)^nf`
`f (x"+"dx,y"+"dy) = e^(del_x"+"del_y)f`
---- 8 septembre 2024 ----
Les dérivées partielles de `f` sont relatives à une variable dans une liste de variables servant de base au calcul de `f`, mais comme `f` peut désigner plusieurs fonctions donnant le même résultat `f`, il se peut dans certain cas qu'il soit nécessaire de préciser la base des arguments utilisés. On le précise soit par une prèsdéclaration, ou bien grace à la la forme d'appel de la fonction que l'on développe, ou soit encore en notant en indice les autres variables considérées constantes. La dérivée partielle selon `x` pour une fonction `f` dépendant de `x,y,z` pourra se noter comme suit :
`((delf)/(delx))_(y,z)`
`((delf(x,y,z))/(delx))dx`
Et sa définition est la suivante :
`(f(x+dx,y,z)-f)/dx+o(1)`
L'opérateur de différentialisation partielle :
`del_x = dx del/(delx)`
`del_y = dy del/(dely)`
L'opérateur de différentialisation totale :
`d =del_x+del_y`
`d^2 =(del_x+del_y)(del_x+del_y)= del_x del_x+2del_xdel_y+del_ydel_y`
La dérivée première est définie comme suit :
`d=(del_x+del_y)= ((del)/(delx)dx + (del)/(dely)dy)`
`df=(del_x+del_y)f =del_xf+del_yf = (delf)/(delx)dx + (delf)/(dely)dy`
`(del_x+del_y) f = del_xf + del_yf = (delf)/(delx)dx+(delf)/(dely)dy`
`(del_x+del_y)^2 = (del_x+del_y)(del_x+del_y)=(del_x^2 +2del_xdel_y+del_y^2)`
`(del_x+del_y)^2f = del_x^2f+2del_xdel_yf+del_y^2f`
`d^2f = (del^2f)/(delx^2)dx^2+2(del^2f)/(delxdely)dxdy+ (del^2f)/(dely^2)dy^2`
Le developpement de Taylor à deux variables peut s'établire à partir des deux règles suivantes :
`f(x"+"dx,y"+"dy)=f+df+(d^2f)/2 +(d^3f)/(3!) +...`
`df = (delf)/(delx)dx + (delf)/(dely)dy`
Et à partir des trois règles de développement suivantes où `u` et `v` sont des variables d'états et où `z` est un entier relatif :
`d(u"+"v) = du+dv`
`d(uv) = udv+vdu`
`d(u^z) = zu^(z"-"1)du`
On commence par calculer la différentielle de la dérivée partielle :
`d((delf)/(delx)) = (del((delf)/(delx)))/(delx)dx+(del((delf)/(delx)))/(dely)dy`
`d((delf)/(delx)) = del/(delx)(del/(delx) f)dx + del/(delx)(del/(dely) f)dy`
`d((delf)/(delx)) = del^2/(delx^2) fdx + del^2/(delxdely) fdy`
et de même :
`d((delf)/(dely)) = del^2/(dely^2) fdx + del^2/(delxdely) fdy`
Puis on calcule la différentielle de la différentielle de `f`, dite différentielle seconde de `f` , notée `d^2f` :
`d^2f = d(df) = d((delf)/(delx)dx + (delf)/(dely)dy)`
`d^2f = d((delf)/(delx)dx) + d((delf)/(dely)dy)`
`d^2f = d((delf)/(delx))dx + (delf)/(delx)d(dx) + d((delf)/(dely))dy+(delf)/(dely)d(dy)`
`d^2f = del^2/(delx^2) fdx + del^2/(delxdely) fdy + del^2/(dely^2) fdx + del^2/(delxdely) fdy + (delf)/(delx)d^2x+(delf)/(dely)d^2y`
`d^2f = (del^2f)/(delx^2)dx^2 + 2 (del^2f)/(delxdely)dxdy + (del^2f)/(dely^2)dy^2 + (delf)/(delx)d^2x+(delf)/(dely)d^2y `
Dans la littérature, les physiciens utilisant des variables libres pour `x` et `y`, choisissent toujours pour ces variables une évolution simple, constante, c'est à dire telles que `d^2x` et `d^2y` sont nulles, et aussi `d^nx"="0` et `d^ny"="0` pour tout entier `n>1`. Mais si `x` et `y` sont fonction de `t` alors ce libre choix n'est plus possible car nous avons nécessairement :
`x←t`
`y←t`
`dx = dot x dt`
`d^2x = ddot x dt^2`
`dy = dot y dt`
`d^2y = ddot y dt^2`
Où l'on note la dérivé d'une variable d'état `u` selon le temps `t` en mettant un point au dessus, `dot u`, et où on note la dérivée seconde selon le temps en mettant deux point au dessus, `ddot u`. Cette formulation de la différentielle seconde n'étant pas habituelle, il convient de trouver une confirmation avec un exemple qui servira ainsi de teste, une sorte d'expérience mathématique pour confirmer la théorie. Exemple :
Erreur sur le calcul de la différentielle seconde : voir
`f←x,y f=x^2y^2`
`x←t x=1+t^2`
`y←t y=1/t`
On peut alors calculer les différentielles premières et seconde de `f` à partir de `(x,y)`, et on peut calculer les différentielles première et seconde de `f` directement à partir de `t`. Et le résultat doit être identique puisque les différentielles `df` et `d^2f` sont des variables d'état du système.
`(delf)/(delx) = del/(delx) (x^2y^2) = y^2 del/(delx) (x^2) =2 y^2 x`
`(delf)/(dely) = del/(dely) (x^2y^2) = x^2 del/(delx) (y^2) =2 x^2 y`
`(del^2f)/(delx^2)=(del/(delx))^2 f = del/(delx) (del/(delx) f) = del/(delx) (2 y^2 x) = 2 y^2`
`(del^2f)/(dely^2)=(del/(dely))^2 f = del/(dely) (del/(dely) f) = del/(dely) (2 x^2 y) = 2 x^2`
`(del^2f)/(delxdely)=(delf)/(delx)((delf)/(dely))=(delf)/(delx)(2 x^2 y)=2y(delf)/(delx)(x^2) = 2 y(2x) = 4 xy`
`dx=d(t^2+1)=2tdt`
`dy=d(1/t)=-dt/(t^2)`
`d^2x=d(dx)=d(2tdt)=2dtdt+2td(dt) = 2dt^2+2td^2t`
`d^2y=d(dy)=d("-"dt/(t^2))=d(dt)("-"1/(t^2))+d("-"1/(t^2))dt=-(d^2t)/(t^2)+2(dtdt)/t^3`
`df = (delf)/(delx)dx + (delf)/(dely)dy`
`df = 2y^2x(2tdt) + 2x^2y("-"dt/(t^2))`
`df = 4y^2xtdt - 2x^2ydt/(t^2)`
`df = 4/(t^2)(1"+"t^2)tdt - 2((1"+"t^2)^2)/tdt/(t^2)`
`df = 4(dt)/t+4tdt-2(1+2t^2+t^4)(dt)/(t^3)`
`df = 4(dt)/t+4tdt-2(dt)/(t^3)-4(dt)/(t)-2tdt`
`df = 2tdt-2(dt)/(t^3)`
`d^2f = (del^2f)/(delx^2)dx^2 + 2 (del^2f)/(delxdely)dxdy + (del^2f)/(dely^2)dy^2 + (delf)/(delx)d^2x+(delf)/(dely)d^2y `
`d^2f = 2y^2dx^2 + 8xydxdy + 2x^2dy^2 +2y^2xd^2x+2x^2yd^2y`
`d^2f = 2y^2(2tdt)^2 + 8xy(2tdt)("-"dt/(t^2)) + 2x^2("-"(dt)/(t^2))^2 +2y^2x(2td^2+2td^2t)+2x^2y(2/t^3dt^2-(d^2t)/(t^2))`
`d^2f = 2/(t^2)(2tdt)^2 + 8(1"+"t^2)/t(2tdt)("-"dt/(t^2)) + 2(1"+"t^2)^2("-"(dt)/(t^2))^2 +2(1"+"t^2)/(t^2)(2dt^2"+"2td^2t)+2((1"+"t^2)^2)/t(2/t^3dt^2-(d^2t)/(t^2))`
`d^2f = 4dt^2 - 16(dt^2)/(t^2) - 16dt^2 - 2(1"+"2t^2+t^4)(dt^2)/(t^4) + 2/(t^2)(2dt^2"+"2td^2t)+ 2(2dt^2"+"2td^2t) +2(1"+"2t^2+t^4)/t(2/t^3dt^2-(d^2t)/(t^2))`
....
Par ailleurs, les différentielles `df` et `d^2f` peuvent se calculer directement à partir de `t` :
`f=x^2y^2=(1+t^2)^2/t^2 = (1+2t^2+t^4)/t^2 = 1/t^2 +2+t^2 `
`df=d(1/t^2 +2+t^2)= d(1/(t^2))+d(t^2) = -2dt/t^3+2tdt`
`d^2f=d(df)= d(
---- 30 août 2024 ----
On procède à un calcul d'opérateurs :
`df = ((del)/(delx)dx + (del)/(dely)dy)f`
`df^n = ((del)/(delx)dx + (del)/(dely)dy)^nf`
Puis en répetant le calcul :
`d^nf = sum_(k=0)^n ((n),(k)) (del^nf)/(del^(n"-"k)xdel^ky)`
où les `((n),(k))` sont les coefficients binomiaux : `((n),(k))=(n!)/(k!(n-k)!)`
On reprend l'exemple d'une fonction binaire :
`f←x,y`
`f(x"+"dx,y"+"dy)=f+df+(d^2f)/2 +(d^3f)/(3!) +...`
`df=(delf)/(delx)dx+(delf)/(dely)dy = (((delf)/(delx)),((delf)/(dely)))·((dx),(dy))`
`d^2f= d(df) = (((del(df))/(delx)),((del(df))/(dely)))·((dx),(dy))`
`= (((del((((delf)/(delx)),((delf)/(dely)))·((dx),(dy))))/(delx)),((del((((delf)/(delx)),((delf)/(dely)))·((dx),(dy))))/(dely)))·((dx),(dy))`
---- 25 août 2024 ----
Une fonction `f` dépendant d'un vecteur `vec r` prédispose un espace vectoriel où se situe le vecteur `vec r`. Et pour chaque valeur de `vec r` qui désigne une position dans cet espace vectoriel, et qui doit être dans le domaine de définition `f`, correspond une valeur scalaire `f(vec r)`. De telle sorte que `f←vec r` définie un champ scalaire dans cet espace vectoriel. La dérivé de `f` selon `vec r` est le vecteur de ses dérivées partielles. C'est le gradient, un vecteur qui indique la direction où la montée est la plus forte, et dont la norme correspond à la variation infinitésimale de `f` lorsque l'on se déplace dans cette direction d'une distance infinitésimale. Ces propriétés apparaissent évidentes lorsque l'on développe la série de Taylor de `f` comme indiqué au chapitre 2