Commit 97d1ff4b authored by Pierre-antoine Comby's avatar Pierre-antoine Comby

Migrate 424 from drive

parent 41efb086
\documentclass[main.tex]{subfiles}
% Relu jusqu'à 3.4 inclus, X 08/02/2015
% Corrigé jusqu'au 4.3 inclus, A 28/02/2015.
\begin{document}
\paragraph{Objectifs } Donner les connaissances fondamentales sur l'analyse et la commande des systèmes non linéaires en abordant les techniques classiques. Le but est d'avoir une compréhension plus profonde des hypothèses sous-jacentes à la commande non linéaire, des outils disponibles pour l'analyse, la synthèse et les limites des résultats obtenues.
\begin{center}
\begin{itemize}
\item Analyse de la stabilité
\item Outils pour la commande non linéaire
\item Synthèse de lois de commande non linéaire
\end{itemize}
\end{center}
\newpage
\section{Définition}
\paragraph{Définition }:\\
Un système est dit Non Linéaire (N.L) si on n'a pas le principe de superposition, i.e. pour une entrée $\sum \lambda_i u_i$ on a en sortie $y \neq \sum \lambda_iy_i$.\\
\paragraph{Définition - Commande}:\\
Pour la commande, les systèmes N.L englobent les systèmes Linéaires (L), i.e. les systèmes L forment un sous-ensemble identifié au principe de superposition. \\
Exemple de systèmes N.L :
\begin{itemize}
\item Equation de Navier-Stokes (Mécanique des fluides)
\item Equation de Boltzmann (Cinétique d'un gaz peu dense)
\end{itemize}
\bigbreak
\begin{example}
Système N.L décrit par des EDO (Équations Différentielles Ordinaires): le pendule simple\\
L'équation est donnée par $ml.\dot{\theta} = -mg.sin(\theta) - kl.\theta$ avec $k$ le coefficient de frottement.\\
On a la représentation d'état avec $\theta = x_1$ et $\dot{\theta} = x_2:$\\
\[\left \{\begin{array}{cc}
\dot{x_1} & = x_2\\
x_2 & = -\frac{g}{l}sin(x_1) - \frac{k}{l}x_1
\end{array}\right.\]
\end{example}
\begin{rem}
Un système à constantes localisées est décrit par des EDO.\\
Un système à constantes réparties est décrit par des EDP (Équations aux Dérivées Partielles).\\
\end{rem}
\begin{rem}
Si la relation entrées-sorties est de classe $C^1$, alors il existe un voisinage, aussi petit soit-il, sur lequel le comportement est linéaire (DL du $1^{er}$ ordre)\\
Dans le cours, on considère les systèmes N.L ayant pour modèle dynamique des EDO.
\end{rem}
On peut donc représenter les systèmes selon le graphe suivant:
\begin{center}
\includegraphics[scale=0.35]{1/graph1.png}
\end{center}
\section{Passage des EDP vers EDO }
Le passage s'effectue par approximation, car le modèle obtenu est de dimension infinie.
\[\vec{\omega}(x,y,z,t) \approx \sum_{i=1}^Nq_i(t)\vec{\eta}(x,y,z)\]
La stabilité sera analysée sur l'aspect temporel car on ne peut pas avoir une dimension spatiale instable.
\begin{example}[Poutre flexible]
On regarde les différent modes d'excitations, obtenus par la méthode des éléments finis.\\
Ceci permet donc de décrire le système dans la Base Modale.\\
\end{example}
\section{Forme générale de la représentation d'état}
Dans le cas général, les systèmes sont décrits par la représentation d'état :
\[\left\{ \begin{matrix}
\dot{x} = f(x,t,u)\\
y = g(x,t,u)& \text{ avec, } & x\in \mathbb{R}^n\text{, }u\in \mathbb{R}^m\text{, }y\in \mathbb{R}^l
\end{matrix} \right.\]
\noindent \underline{Exemple}: Système LTV
\begin{align*}
f(x,t,u) = A(t)x + B(t) u\\
g(x,t,u) = C(t)x +D(t)u
\end{align*}
Ainsi la solution est noté $\chi (t,x_0)$, qui donne la valeur de $x$ à l'intsant t pour une condirtion initiale $x_0$
\begin{defin}[Trajectoire]
La trajectoire $\chi$ d'un système dynamique $G$ sur $\mathcal{D}\subset \R^n$$n$ est la dimension de $G$ , est une application :
\[
\chi: \R \times \mathcal{D} \to \mathcal{D}
\]
vérifiant les propriétés:
\begin{enumerate}
\item Continuité $\chi $ est continue su r$\R \times \mathcal{D}$ et $\forall x \in \mathcal{D}, \chi (\cdot,x) $ est dérivable sur $\R$
\item Consistance $\chi(0,x) = x$
\item Propriété de Groupe $ \chi(t,\chi(\tau,x))=\chi(t+\tau,x)$
\end{enumerate}
\begin{rem}
suivant la propriété 1. on a :
\[
\derivp[\chi(t,x)]{t} = f(\chi(t,x))
\]
et si on fixe $x=x_0$ à $t=0$ alors :
\[
\deriv{\chi(t,x_0)}= f(\chi(t,x_0))
\]
\end{rem}
L'ensemble $\mathcal{D}$ dans lequel évolue la trajectoire est nommée \emph{espace de phase}
\end{defin}
Dans le cas causal, on se limite à $ \chi: \R_+ \times \mathcal{D} \to \mathcal{D}$.
Pour $t$ fixé on note $\chi_t :=\chi(t,x) \mathcal{D}\to \mathcal{D}$
\begin{prop}
L'application inverse de $\chi_t$ et$\chi_{-t}$ est un homéomorphisme ie bijectif continu et inverse continu
\end{prop}
\begin{proof}
on montre l'injectivité et la surjectivité de $\chi$.
La propriété 1. permet de montrer la continuité.
\end{proof}
\end{document}
This diff is collapsed.
This diff is collapsed.
This diff is collapsed.
\documentclass[main.tex]{subfiles}
% Relu jusqu'à 3.4 inclus, X 08/02/2015
% Corrigé jusqu'au 4.3 inclus, A 28/02/2015.
\newcommand{\Lc}{\mathcal{L}}
\newcommand{\D}{\mathcal{D}}
\begin{document}
\section{Introduction (notations maths)}
\begin{defin}[Champ de vecteur]
C'est une application de $\R^n \rightarrow \R^n$.
\end{defin}
\begin{defin}[Crochet de Lie]
Soit $f : \R^n \rightarrow \R^n$ et $g : \R^n \rightarrow \R^n$, on définit le crochet de Lie :
\[ [f,g] :
\begin{cases}
\R^n & \rightarrow \R^n \\ x & \mapsto J_g(x)f(x) - J_f(x)g(x)
\end{cases}
\]
$J_f$ et $J_g$ sont respectivement les matrices jacobiennes de $f$ et $g$.
\end{defin}
\begin{prop}[Crochet de Lie]
Soient $f, g \text{ et }h$ des champs de vecteurs et $\lambda_1, \lambda_2 \in \K, (\K = \R \text{ ou } \C)$.
Alors
\begin{align*}
[\lambda_1 f + \lambda_2 g, h ] = \lambda_1[f,h] + \lambda_2[g,h] \quad & \text{Bilinéaire} \\
[f,g] = - [g,f] \quad & \text{Anti-symétrique} \\
[f,[g,h]] + [h,[f,g]] + [g,[h,f]] = 0 \quad & \text{Identité de Jacobi} \\
[f,f] = 0 \quad
\end{align*}
\end{prop}
\begin{defin}[Algèbre de Lie]
$G$ est une algèbre de Lie sur $\K$ si $G$ est un espace vectoriel ayant pour loi interne le crochet de Lie.
\end{defin}
\begin{rem}
Cette définition se restreint au cas qui nous intéresse ici, ce n'est pas la définition générale.
\end{rem}
\begin{rem}
$\Lc(E)$ est l'algèbre de Lie ayant pour famille génératrice l'ensemble des champs de vecteurs $E$.
\end{rem}
\underline{Notation} : Crochet de Lie itéré
$ad_f^0 (x) = g(x)$
$ad_f^1 g(x) = [f,g](x)$
$ad_f^k g(x) = [f,ad_f^{k-1}g](x)$
\begin{defin}[Dérivée de Lie]
la dérivée de Lie d'une fonction $\alpha : \R^n \rightarrow \R$ dans la direction de $f : \R^n \rightarrow \R^n$, notée $L_f\alpha$, est définie par :
\[L_f \alpha(x) = \sum_{i=1}^n \derivp[\alpha(x)]{x_i}f_i(x) \]
Ainsi,
\[L_f^k \alpha (x) = J_{L_f^{k-1} \alpha} (x) f(x) = [ \derivp[L_f^{k-1} \alpha(x)]{x_1} \dots\derivp[L_f^{k-1} \alpha(x)]{x_n}] \vect{f_1(x) \\ \vdots \\ f_n(x) } \]
\end{defin}
\begin{rem}
\begin{itemize}
\item $L_f^0 (x) = \alpha(x)$
\item Soient 2 champs de vecteurs $f$ et $g$, alors
\begin{align*}
L_g L_f \alpha (x) & = J_{L_f \alpha}(x) g(x) \\
L_{[f,g]} \alpha(x) & = L_f L_g \alpha(x) - L_gL_f \alpha(x)
\end{align*}
\end{itemize}
\end{rem}
\begin{defin}[dimension]
La dimension d'un ensemble de champs de vecteurs $E=\{f_1(x) \dots f_n(x)\}$, où $f_i(x) : \R^n \rightarrow \R^n$, est la dimension de l'espace vectoriel $\Delta(x)$ engendré par l'ensemble $E$.
\begin{rem}
On fait la confusion entre rang et dimension.
\end{rem}
\end{defin}
\begin{example}
\[ f_1(x) = \vect{x_1 \\ x_2 \\ 2}, f_2(x) =
\begin{bmatrix}
x_1 & x_3 \\ x_2 & x_3 \\2 & x_3
\end{bmatrix}
\text{ et }f_3(x) = \vect{x_2 \\ x_2 \\ 0} \]
Si $x_2 = 0$, alors $\Delta(x) = vect\{( \vect{x_1 \\ 0 \\ 2} ) \} \text{ et }dim=1$.
Si $x_2 \neq 0$, alors $\Delta(x) = vect\{(\vect{x_1 \\ x_2 \\ 2},\vect{1 \\ 1 \\ 0})\} \text{ et }dim=2$.
\end{example}
\section{Commandabilité (atteignabilité, contrôlabilité)}
Soit le système non-linéaire (1) (affine en la commande)
\[ \dot{x} = f(x) + g(x)u = f(x) + \sum_{i=1}^m g_i(x) u_i, \quad x \in \R^n \text{ et }u \in \R^m \]
\begin{defin}[Commandabilité]
Un système est commandable ssi $\forall x \in \R^n, \exists u$ tel que $x$ est atteignable dans un temps fini.
\end{defin}
\begin{thm}[Théorème de Commandabilité]
Le système (1) est commandable ssi la sous-algèbre de Lie $\D = \{g_1 \dots g_m, \Lc(E)\}$ avec $E=\{g_1 \dots g_m,f\}$ est de dimension $n$.
\end{thm}
\begin{example}[linéaire]
\[ \dot{x} = Ax + Bu \]
\[ E = \{Ax,B\}, [B,Ax] = AB \]
\[ [AB,Ax] = A^2B, \dots, A^{n-1}B, \dots \]
\[ \Lc(E) = vect \{AB,A^2B,\dots\} \]
suivant Cayley Hamilton:
\[ \D = \{B,vect \{AB,AB^2,\dots,A^{n-1}B\}\}\]
$dim \D = rang (B AB \dots A^{n-1}B)$ théorème de Kalman
\end{example}
\section{Observabilité (distingabilité)}
Soit le système NL (2) (affine en la commande) :
\begin{align*}
\dot{x} & = f(x) + g(x)u \\
y & = h(x)
\end{align*}
\begin{defin}[Observabilité]
Un système est observable si $\forall x_1,x_2 \in \R^n$ 2 conditions initiales telles que $x_1 \neq x_2$, $\exists$ une commande $u$ admissible telle que les sorties soient distinctes, $\forall t \geq t_0$ ($t_0$ instant initial).
\end{defin}
\begin{defin}[Espace d'observabilité]
$\mathcal{V}$ est l'espace d'observabilité constitué de toutes les combinaisons linéaires obtenues à partir des dérivées de Lie $L_f$ et $L_g$ des fonctions $h_j(x),j=1 \dots p$ telles que $y\in\R^p$
\[ \mathcal{V} = \{h_j,L_fh_j, L_g h_j, L^2_f h_j,\dots L_g L_f h_j, L_f L_g h_j,\dots \}\]
Soit $\nabla \mathcal{V}$ l'ensemble des différentielles (gradient) des éléments de $\mathcal{V}$ :
\[ \nabla \mathcal{V} = \{ \nabla h_j, \nabla L_f h_j ... \} \]
\end{defin}
\begin{thm}[Théorème d'observabilité]
Le système (2) est localement observable en $x_0$ si $dim \nabla \mathcal{V}(x_0) = n$ et il est observable si $\forall x \in \R^n, dim \nabla \mathcal{V}(c) = n$
\end{thm}
\begin{example}[linéaire]
\begin{align*}
\dot{x} & = Ax + Bu = f(x) + g(x)u\\
y & = Cx = h(x)
\end{align*}
\begin{align*}
\mathcal{V} & = \{ h(x), L_fh(x), L_gh, L^2_fh ,L_g^2h , L_fL_gh , L_gL_fh \dots \} \\
\mathcal{V} & = \{ Cx, C.Ax (=L_fh(x)), C.B (=L_gh), CA^2x (=L^2_fh) ,0 (=L_g^2h) , 0 (=L_fL_gh) , CAB (=L_gL_fh) \dots \} \\
\nabla \mathcal{V} & = \{ C , CA , 0 CA^2 , 0 , 0 , 0 \dots \} \\
dim \nabla \mathcal{V} & = rang \vect{ C \\ CA \\ CA^2 \\ \vdots \\ CA^{n-1}} \quad \text{Critère de Kalman}
\end{align*}
\end{example}
\begin{rem}
l'action de la commande intervient dans l'observabilité. Cette contrainte est écartée dnas le cas linéaire.
\end{rem}
\end{document}
This diff is collapsed.
\documentclass{../../cours}
\usepackage{../../raccourcis}
% Mise en page
\title{Notes de Cours}
\author{Pierre-Antoine Comby}
\teacher{Mohamed Abbas Turkis}
\module{424 \\ Commandes de système non linéaires}
\usepackage{multicol}
\begin{document}
\maketitle
\tableofcontents
\part{Analyse de la stabilité}
\chapter{Classification}
\subfile{chap1.tex}
\chapter{Stabilité des systèmes linéaires} %premier cours en 2019
\subfile{chap4.tex}
\chapter{Linéarisation}
\subfile{chap2.tex}
\chapter{Methode du premier harmonique}
\subfile{chap3.tex}
\chapter{Commandabilité et observabilité en non linéaire}
\subfile{chap5.tex}
\part{Outils pour la commande non linéaire}
\part{Synthèse de lois de commandes non linéaires}
%\subfile{chap2.tex}
\end{document}
\documentclass{article}
\input{../../preambule/preambule}
\newcommand{\nom}{TD1 : Espace de phase et stabilité}
\renewcommand{\nomentete}{UE424 - \nom}
\begin{document}
\titre{\nom}
\section*{Exercice 1}
\begin{enumerate}
\item Pour trouver les points d'équilibres, on annuler les dérivées des positions:
\[
\left \{ \begin{matrix}
0 = \sigma(x_2-x_1)\\
0 = \rho x_1 - x_2-x_1x_3\\
0 = -\beta x_3 + x_1 x_2
\end{matrix} \right. \Leftrightarrow
\left \{ \begin{matrix}
x_1 = x_2\\
x_1(\rho -1 -x_3) = 0 \\
\beta x_3 = x_1^2
\end{matrix} \right.\]
Si $ x_1 = 0$, alors:
\[\begin{pmatrix}x_1\\x_2\\x_3\end{pmatrix} = \begin{pmatrix}0\\0\\0\end{pmatrix}\]
Si $x_1 \neq 0$, alors
\[\left \{ \begin{matrix}
x_3 = \rho -1\\
\text{si $\rho > 1$, } x_1 = \pm \sqrt{\beta(\rho -1)} = x_2
\end{matrix}\right.
\text{ ou alors }
\left \{ \begin{matrix}
x_3 = \rho -1\\
\text{si $\rho < 1$, } x_1 = \pm j\sqrt{\beta(1-\rho)} = x_2
\end{matrix}\right.\]
\item Donnons la linéarisation tangente du système autour du point d'équilibre en $\rho = 1$:
\[
\left \{ \begin{matrix}
\dot{x_1} = \sigma(x_2-x_1)\\
\dot{x_2} = x_1 - x_2-x_1x_3\\
\dot{x_3} = -\beta x_3 + x_1 x_2
\end{matrix} \right. \Leftrightarrow
\left \{ \begin{matrix}
\dot{x_1} = f_1(x))\\
\dot{x_2} = f_2(x)\\
\dot{x_3} = f_3(x)
\end{matrix} \right.\]
Ainsi, on a en linéarisant autour de 0:
\[\delta \dot{x} = \begin{pmatrix}
\left. \frac{\partial f_1}{\partial x_1}\right |_0 & \left. \frac{\partial f_1}{\partial x_2}\right |_0 & \left. \frac{\partial f_1}{\partial x_3}\right |_0 \\ \left. \frac{\partial f_2}{\partial x_1}\right |_0 & \left. \frac{\partial f_2}{\partial x_2}\right |_0 & \left. \frac{\partial f_2}{\partial x_3}\right |_0 \\
\left. \frac{\partial f_3}{\partial x_1}\right |_0 &\left. \frac{\partial f_3}{\partial x_2}\right |_0 & \left. \frac{\partial f_3}{\partial x_3}\right |_0
\end{pmatrix} \delta x \Rightarrow
A = \begin{pmatrix}
-\sigma & \sigma & 0 \\ 1 & -1 &0 \\ 0& 0& -\beta
\end{pmatrix}\]
Stabilité en linéaire de $x_0 = \begin{pmatrix}0\\0\\0\end{pmatrix}$
On calcule $det(\lambda I - A) = 0$, ie:
\begin{align*}
det\begin{pmatrix}\lambda + \sigma & -\sigma & 0 \\ -1 &\lambda +1 &0\\ 0 & 0 &\lambda + \beta\end{pmatrix} &= (\lambda + \beta)((\lambda + \sigma ) (\lambda + 1 ) - \sigma)\\
&= (\lambda + \beta)(\lambda^2 + (1+\sigma)\lambda
\intertext{On a donc les trois équations suivantes:}
\lambda &= - \beta\\
\lambda &= 0\\
\lambda &= -(\sigma+1)
\end{align*}
Il n'existe pas de point d'équilibre en linéaire ce qui contredit le résultat en N.L où nous avons pour seul point d'équilibre $ x = \begin{pmatrix}
0\\0\\0
\end{pmatrix}$.
\end{enumerate}
\section*{Exercice 2 : Asservissement à relais}
On considère le système constitué d'un moteur a courant continu asservie en position avec une correction tachymétrique, donné par la figure ci-dessous. R(.) représente la caractéristique d'un relais symétrique avec seuil $\Delta$ et hystérésis $h$.
\begin{center}
%\includegraphics[scale=0.5]{figure1.png}
\end{center}
\begin{enumerate}
\item On pose $e(t) = 0$, la transformée inverse donne donc, d'une part:
\begin{align*}
\omega &= \frac{d\theta}{dt}
\intertext{Ce qui conduit à: }
\omega(t) + \tau \frac{d\omega(t)}{dt} &= \frac{d\theta(t)}{dt} + \tau \frac{d^2\theta(t)}{dt^2}\\
&= K R(-L\frac{d\theta(t)}{dt} - \theta(t))\\
&= -KR(L\frac{d\theta(t)}{dt} + \theta(t))
\intertext{avec comme condition initiale:}
\theta(t=0) &= 0\\
\omega(t=0) &= 0
\end{align*}
Si l'on pose maintenant $e = e_0u(t)$, on a simplement:
\[\frac{d\theta(t)}{dt} + \tau \frac{d^2\theta(t)}{dt^2} = -KR(L\frac{d\theta(t)}{dt} + \theta(t) - e)\]
avec comme condition initiale $\theta(0) = -e_0$ et $\dot{\theta} = \omega_0 = 0$.\\
Remarque : si on pose $ \theta ' = \theta - e_0$ on retrouve la même équation différentielle et cela n'influence pas la transformée de Laplace, les deux sont donc équivalent.
\item On a pour le temps réduit $ \overline{t} = \frac{t}{\tau}$.\\
Attention! La fonction R(.) fait sortir un $U_0$ a ne pas oublier.\\
Et on pose en identifiant après avoir injecté le $\tau$ provenant de la normalisation du temps, $\overline{\theta} = \frac{\theta}{KU_0\tau}$.\\
On trouve alors simplement $\overline{\omega} = \frac{d\overline{\theta}}{d\overline{t}} = \frac{\omega}{KU_0}$.
Reste plus qu'à identifier les constantes:\\
On a simplement $\beta = \frac{L}{\tau}$.\\
Et d'une façon presque obscure $a = \frac{\Delta + h}{2KU_0\tau}$ et $\alpha a = \frac{\Delta - h}{2KU_0\tau}$.
\begin{center}
%\includegraphics[scale=0.5]{figure2.png}
\end{center}
\item On pose $\frac{d\overline{\theta}}{d\overline{t}} + \frac{d^2\overline{\theta}}{d\overline{t}^2} = \lambda$ avec $\lambda = 1$ , 0 ou -1 en fonction de $\epsilon$ ou de $\frac{d\epsilon}{dt}$.\\
On a comme condition initiale : $\overline{\theta}(t=0) = \overline{\theta_0}$ et $\overline{\omega}(t=0) = \overline{\omega_0}$. Ce qui conduit à:
\begin{align*}
\overline{\omega}(t) + \frac{d\overline{\omega}}{d\overline{t}} = \lambda &\Rightarrow \overline{\omega}(t) = \overline{\omega_0}e^{-\overline{t}} + \lambda(1 - e^{-\overline{t}})
\intertext{On a donc en variable $\overline{\theta}$}
\frac{d\overline{\theta}}{d\overline{t}} &= \overline{\omega_0}e^{-\overline{t}} + \lambda(1 - e^{-\overline{t}})
\intertext{d'où:}
\overline{\theta}(t) - \overline{\theta_0} &= \overline{\omega_0} - \overline{\omega_0}e^{-\overline{t}} + \lambda \overline{t} - \lambda(1 - e^{-\overline{t}})
\end{align*}
\item Pour décrire l'espace des phases, on pose $x_1 = \overline{\theta}$ et $x_2 = \overline{\omega}$.Par élimination de $\overline{t}$, en utilisant la méthode explicite on a:
\begin{align*}
x_2(t) + x_1(t) &= \overline{\omega_0} + \overline{\theta_0} + \lambda\overline{t}
\intertext{d'où:}
x_2 - \lambda &= (\overline{\omega_0} - \lambda)e^{-\overline{t}}
\intertext{et ainsi:}
\overline{t} &= ln\left(\frac{\overline{\omega_0}-\lambda}{x_2-\lambda}\right)
\intertext{ainsi, en remplaçant de façon explicite le temps réduit:}
x_2(t) + x_1(t) &= \overline{\omega_0} + \overline{\theta_0} + \lambda ln\left(\frac{\overline{\omega_0}-\lambda}{x_2-\lambda}\right)
\end{align*}
Avec la méthode implicite on a $\frac{dx_2}{d\overline{t}} = \lambda -x_2$ et $\frac{dx_1}{d\overline{t}} = x_2$. Ainsi on a $\frac{dx_2}{dx_1} = \frac{\lambda-x_2}{x_2}$ et en intégrant, on retrouve le résultat précédent.
\item L'allure de l'espace de phase dépend de la valeur de $\lambda$.\\
Pour $\lambda = 0$ on a directement $x_1 + x_2 = \overline{\theta_0} + \overline{\omega_0}$
Pour $\lambda $ on a
Comportement asymptotique
\[\overline{t} \leftarrow \infty \Rightarrow \left \{ \begin{matrix}
x_1 = \pm \infty \\
x_2 = \lambda
\end{matrix} \right. \]
\[\overline{t} \leftarrow -\infty \Rightarrow \left \{ \begin{matrix}
x_1 \approx -\overline{\omega_0} e^{-\overline{t}}+\lambda e^{-\overline{t}} \\
x_2 \approx \overline{\omega_0} e^{-\overline{t}}-\lambda e^{-\overline{t}}
\end{matrix} \right. \]
On a dans le deuxième cas:
$x_1(t) = - x_2(t)$ et $\frac{dx_2}{dx_1} = \frac{\lambda - x_2}{x_2} =_{x_2=0} + \infty$
\begin{align*}
\frac{d^2x_2}{dx_1^2} &= \frac{-\lambda(\lambda-x_2)}{x_2^3}
\intertext{Selon la valeur de $\lambda$ on a plusieurs solutions:}
\lambda = -1 \text{ et, } x_2 >-1 &\Rightarrow \text{concavité tournée vers $x_1 < 0$}\\
\lambda = 1 \text{ et, } x_2 < 1 &\Rightarrow \text{concavité tournée vers $x_1 > 0$}\\
\end{align*}
\img{0.25}{1.png}
\newpage
On a en sortie du comparateur: $\epsilon = x_1 + \beta x_2$
Sachant que l'on a la caractéristique: (attention, on a permuté avec $-R(\epsilon)$
\img{0.4}{2.png}
On en déduit que:
\img{0.4}{3.png}
Ainsi, selon la où l'on est, on va avoir différent $\lambda$, et on va pouvoir recouper ce graph avec celui de l'espace de phase précédent pour avoir le comportement du système dans l'espace de phase.
On parcourt donc l'espace de phase en partant du point P, puis on se déplace vers le point Q par la droite de pente -1, puis de Q a R et S pour revenir vers T sur la portion de courbe ou se situe P.
\img{0.4}{4.png}
Si $x_{2T} < x_{2P}$, alors on a stabilité et on converge vers le point d'équilibre 0.\\
Si $x_{2T} > x_{2P}$, alors on a un comportement instable et le système diverge.\\
Si $x_{2T} = x_{2P}$, alors on est sur le cycle limite.\\
\item On étudie chaque portion du cycle.
Entre le point P et Q on a comme relation:
\begin{align*}
x_{1p} + \beta x_{2p} & = -\alpha a\\
x_{1q} + \beta x_{2q} & = a
x_{1p} + x_{2p} & = x_{1q} + x_{2q} \text{ (dynamique)}
\end{align*}
Entre le point Q et R on a comme relation:
\begin{align*}
x_{1q} + \beta x_{2q} & = a\\
x_{1r} + \beta x_{2r} & = \alpha a\\
x_{1r} + x_{2r} & = x_{1q} + x_{2q} - ln\left(\frac{1+x_{2q}}{1+x_{2r}}\right) \text{ (dynamique)}
\end{align*}
Par symétrie, l'obtention du cycle limite vérifie $x_{2r} = -x_{2p}$. On a donc donc 6 inconnu et 6 équations différentes.
Ainsi, pour imposer le comportement du système, on fixe un cycle limite et l'on impose les valeurs de $a$ et $\alpha$ pour l'obtenir.
\end{enumerate}
\end{document}
\ No newline at end of file
\documentclass{article}
\input{../../preambule/preambule}
\newcommand{\nom}{TD2 : Méthode du premier harmonique}
\renewcommand{\nomentete}{UE424 - \nom}
\begin{document}
\titre{\nom}
\section*{Exercice I : Gain complexe équivalent}
\begin{enumerate}\setlength{\itemsep}{1cm}
\item Pour la fonction de seuil:
%\img{0.5}{1.png}
\[ y =
\left\{
\begin{array}{cc}
0 & \si |X| \leq \frac{\Delta}{2} \\
x-\frac{\Delta}{2} & \si X > \frac{\Delta}{2} \\
x+\frac{\Delta}{2} & \si X < -\frac{\Delta}{2}
\end{array}
\right.
\]
\img{0.5}{2.png}
On pose \[ N(X) = \frac{P+jQ}{X} \avec Q=0 \]
\begin{align*}
P &= \frac{4\omega}{\pi} \int_{t_1}^{\frac{\pi}{2\omega}}(Xsin(\omega t) - \frac{\Delta}{2})sin(\omega t) dt\\
&= \frac{4\omega}{\pi} \int_{t_1}^{\frac{\pi}{2\omega}}(Xsin^2(\omega t) - \frac{\Delta}{2}sin(\omega t)) dt\\
&=-\frac{2\Delta}{\pi}cos(\omega t_1) - \frac{4 X \omega}{\pi}(\frac{t_1}{2} - \frac{\pi}{4\omega} - \frac{sin(2t_1 \omega}{4\omega})\\
\text{Or, } & Xsin(\omega t_1) = \frac{\Delta}{2} \Rightarrow t_1 = \frac{1}{\omega} arcsin(\frac{\Delta}{2X})\\
&\Rightarrow P = X (1 - \frac{2}{\pi}(arcsin(\frac{\Delta}{2X}) + \frac{\Delta}{2X}\sqrt{1-(\frac{\Delta}{2X})^2}
\end{align*}
On a alors $N(X) = \frac{P}{X}$.
\item Pour le relais avec hystérésis
\img{0.5}{3}
On pose $X\sin(\omega t_1) = \frac{h}{2} \donc t_1 = \frac{1}{\omega} arcsin(\frac{h}{2X})$
\begin{figure}[h!]
\centering
\includegraphics[scale=0.5]{4}
\includegraphics[scale=0.5]{5}
\end{figure}
\begin{multicols}{2}
\begin{align*}
P & = \frac{\omega}{\pi} \int_{[T]} y(t) \sin(\omega t) dt \\
& = 2\frac{\omega}{\pi} \int_{t_1}^{\frac{\pi}{\omega}+t_1} M \sin(\omega t) dt\\
& = 2\frac{\omega}{\pi}M . \frac{-\cos(\pi+\omega t_1) + \cos(\omega t_1)}{\omega} \\
P & = \frac{4M}{\pi} \sqrt{1-(\frac{h}{2X})^2}
\end{align*}
\begin{align*}
Q & = \frac{\omega}{\pi} \int_{[T]} y(t) \cos(\omega t) dt \\
& = 2\frac{\omega}{\pi} \int_{t_1}^{\frac{\pi}{\omega}+t_1} M \cos(\omega t) dt \\
& = 2\frac{\omega}{\pi}M.\frac{\sin(\pi + \omega t_1) - \sin(\omega t_1)}{\omega} \\
Q & = -\frac{4M}{\pi} \frac{h}{2X}
\end{align*}
\end{multicols}
\[ |N(X)| = \frac{\sqrt{P^2 + Q^2}}{X} = \frac{4M}{\pi X} \]
\item Pour le jeux sans inertie aval
%\img{0.5}{6}
\[ y(t) =
\left\{
\begin{array}{cc}
x(t) - \alpha & \text{ sur } DA\\