You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

88 lines
3.3 KiB
TeX

\documentclass[12pt]{scrartcl}
\usepackage{notes_2023}
\begin{document}
%\title{}
%\maketitle
\begin{definition}[prodotto scalare standard in $\RR^n$]
Si definisce \textbf{prodotto scalare} (standard)
la forma bilineare simmetrica definita
positiva di $\RR^n$ la cui matrice associata nella
base canonica di $\RR^n$ è l'identità. In particolare
vale che:
\[ v \cdot w = \sum_{i=1}^n v_i w_i. \]
\end{definition}
\begin{remark}
Dall'Algebra lineare, ogni iperpiano $P$ di $\RR^{n}$ è
rappresentabile tramite traslazione di una giacitura che è ortogonale rispetto a una retta,
ossia esistono sempre $c \in \RR$ e $v \in \RR^{n}$ tale per cui:
\[ x \in P \iff x \cdot v = c. \]
\end{remark}
\begin{definition}[derivata direzionale]
Dati $x_0 \in \RR^n$, $f : \RR^n \to \RR$, e
$v \in \RR^n$, definisco la \textbf{derivata direzionale}
come:
\[ \frac{\partial f}{\partial v}(x_0) = \lim_{\eps \to 0} \frac{f(x + \eps v) - f(x)}{\eps}. \]
\end{definition}
\begin{remark}
Si osserva che vale la seguente identità:
\[ \frac{\partial f}{\partial \lambda v} = \lambda \frac{\partial f}{\partial v}, \]
e che se $v = 0$, allora la derivata direzionale vale
sempre $0$.
\end{remark}
\begin{remark}
Non vale la linearità sui vettori della derivata
direzionale, ossia, in generale, vale che:
\[ \frac{\partial f}{\partial (v + w)} \neq \frac{\partial f}{\partial v} + \frac{\partial f}{\partial w}. \]
Se infatti si definisce $f$ tale per cui:
\[ f(x, y) = \begin{cases}
\frac{x^2 y}{x^2 + y^2} & (x, y) \neq 0,
\\ 0 & (x, y) = 0,
\end{cases} \]
allora $\frac{\partial f}{\partial e_1}(0) =
\frac{\partial f}{\partial e_2}(0) = 0$, ma
$\frac{\partial f}{\partial (1,1)}(0) = \frac{1}{2}$.
\end{remark}
\begin{remark}
Trovando un'analogia con $\RR$, vale la seguente identità:
\[ f(x_0 + \eps v) = f(x_0) + \eps \frac{\partial f}{\partial v}(x_0) + o(\abs{\eps v}). \]
In particolare si osserva che l'$o$-piccolo dipende dal
vettore direzionale scelto.
\end{remark}
\begin{definition}[derivata parziale]
Si definisce \textbf{derivata parziale} rispetto a
$x_i$, la derivata direzionale rispetto al vettore
$e_i$, e si indica con:
\[ \frac{\partial f}{\partial x_i} := \frac{\partial f}{\partial e_i} \]
\end{definition}
\begin{remark}
Se $\frac{\partial f}{\partial v}$ fosse lineare su $v$,
allora si potrebbe riscrivere la derivata direzionale come:
\[ \frac{\partial f}{\partial v} = \nabla \! f \, v, \quad
\nabla f = \left(\frac{\partial f}{\partial x_1} \cdots \frac{\partial f}{\partial x_n}\right), \]
dove $\nabla f$ è così composto perché in ogni colonna
raccoglie la sua valutazione nella base canonica, ossia
le derivate parziali.
\end{remark}
\begin{definition}[gradiente di $f$]
Si definisce \textbf{gradiente} di una funzione $f : \RR^n \to \RR$ il vettore:
\[ \nabla f = \left(\frac{\partial f}{\partial x_1} \cdots \frac{\partial f}{\partial x_n}\right). \]
\end{definition}
\begin{definition}[differenziabilità]
Si dice che $f$ è \textbf{differenziabile} se esiste
$\omega \in \RR^n$ tale per cui:
\[ f(x) = f(x_0) + (x-x_0) \cdot \omega + o(\abs{x-x_0}). \]
In tal caso si dice che $\omega$ è il suo \textbf{differenziale} e si indica con $Df(x_0)$.
\end{definition}
\end{document}