En adelante,
K
{\displaystyle K}
denotará el cuerpo de los números reales o complejos y
K
m
×
n
{\displaystyle K^{m\times n}}
denotará el espacio vectorial que contienen todas las matrices con
m
{\displaystyle m}
filas y
n
{\displaystyle n}
columnas con entradas en
K
{\displaystyle K}
.
Una norma matricial es una norma vectorial en
K
m
×
n
{\displaystyle K^{m\times n}}
, o sea, si
‖
A
‖
{\displaystyle \|A\|}
denota la norma de la matriz
A
{\displaystyle A}
, entonces,
‖
A
‖
>
0
{\displaystyle \|A\|>0}
si
A
≠
O
{\displaystyle A\neq O}
y
‖
A
‖
=
0
{\displaystyle \|A\|=0}
si y solo si
A
=
O
{\displaystyle A=O}
‖
α
A
‖
=
|
α
|
‖
A
‖
{\displaystyle \|\alpha A\|=|\alpha |\|A\|}
para todo
α
{\displaystyle \alpha }
en
K
{\displaystyle K}
y todas las matrices
A
{\displaystyle A}
en
K
m
×
n
{\displaystyle K^{m\times n}}
‖
A
+
B
‖
≤
‖
A
‖
+
‖
B
‖
{\displaystyle \|A+B\|\leq \|A\|+\|B\|}
para todas las matrices
A
{\displaystyle A}
y
B
{\displaystyle B}
en
K
m
×
n
.
{\displaystyle K^{m\times n}.}
Adicionalmente, en el caso de matrices cuadradas (o sea, m = n ), algunas (pero no todas) normas matriciales satisfacen la siguiente condición, la cual se relacióna con el hecho de que las matrices son más que simples vectores:
‖
A
B
‖
≤
‖
A
‖
‖
B
‖
{\displaystyle \|AB\|\leq \|A\|\|B\|}
para todas las matrices
A
{\displaystyle A}
y
B
{\displaystyle B}
en
K
n
×
n
.
{\displaystyle K^{n\times n}.}
Una norma matricial que satisface esta propiedad adicional es llamada norma sub-multiplicativa (en algunos libros, la terminología norma matricial se usa solo para normas que son sub-multiplicativas). El conjunto de todas las matrices n -por-n , siendo normas sub-multiplicativas, es un ejemplo de un álgebra de Banach .
Si se tienen norma vectoriales en K m y K n se pueden definir la norma inducida correspondiente o el operador norma en el espacio de matrices
m
×
n
{\displaystyle m\times n}
de la siguiente manera:
‖
A
‖
=
sup
{
‖
A
x
‖
:
x
∈
K
n
con
‖
x
‖
=
1
}
=
sup
{
‖
A
x
‖
‖
x
‖
:
x
∈
K
n
con
x
≠
0
}
.
{\displaystyle {\begin{aligned}\|A\|&=\sup\{\|Ax\|:x\in K^{n}{\mbox{ con }}\|x\|=1\}\\&=\sup \left\{{\frac {\|Ax\|}{\|x\|}}:x\in K^{n}{\mbox{ con }}x\neq 0\right\}.\end{aligned}}}
Donde sup denota el elemento supremo e ínfimo .
Hay diferentes normas que se denotan p -normas y usualmente se denotan por
‖
A
‖
p
.
{\displaystyle \left\|A\right\|_{p}.}
Si m = n y uno usa la misma norma en el dominio y el rango, entonces el operador norma inducido es una norma matricial sub-multiplicativa.
El operador norma correspondiente a la norma p para vectores es:
‖
A
‖
p
=
max
x
≠
0
‖
A
x
‖
p
‖
x
‖
p
.
{\displaystyle \left\|A\right\|_{p}=\max \limits _{x\neq 0}{\frac {\left\|Ax\right\|_{p}}{\left\|x\right\|_{p}}}.}
En el caso de
p
=
1
{\displaystyle p=1}
y
p
=
∞
{\displaystyle p=\infty }
, las normas se pueden calcular como:
‖
A
‖
1
=
max
1
≤
j
≤
n
∑
i
=
1
m
|
a
i
j
|
,
{\displaystyle \left\|A\right\|_{1}=\max \limits _{1\leq j\leq n}\sum _{i=1}^{m}|a_{ij}|,}
que es simplemente la máxima suma absoluta de las columnas de la matriz.
Demostración:
Sea
α
=
max
1
≤
j
≤
n
∑
i
=
1
m
|
a
i
j
|
{\displaystyle \alpha =\max \limits _{1\leq j\leq n}\sum _{i=1}^{m}|a_{ij}|}
.
Tenemos que
∀
x
∈
K
n
‖
A
x
‖
1
=
∑
i
=
1
m
|
∑
j
=
1
n
a
i
j
x
j
|
≤
∑
i
=
1
m
∑
j
=
1
n
|
a
i
j
|
|
x
j
|
=
∑
j
=
1
n
(
|
x
j
|
∑
i
=
m
n
|
a
i
j
|
)
≤
∑
j
=
1
n
|
x
j
|
α
=
α
∑
j
=
1
n
|
x
j
|
=
α
‖
x
‖
1
⇒
{\displaystyle \forall x\in K^{n}~~~\|Ax\|_{1}=\sum _{i=1}^{m}{\left|\sum _{j=1}^{n}{a_{ij}x_{j}}\right|}\leq \sum _{i=1}^{m}{\sum _{j=1}^{n}{|a_{ij}||x_{j}|}}=\sum _{j=1}^{n}{\left(|x_{j}|\sum _{i=m}^{n}{|a_{ij}|}\right)}\leq \sum _{j=1}^{n}{|x_{j}|\alpha }=\alpha \sum _{j=1}^{n}{|x_{j}|}=\alpha \|x\|_{1}\Rightarrow }
⇒
‖
A
x
‖
1
‖
x
‖
1
≤
α
∀
x
∈
K
n
∖
{
0
}
⇒
‖
A
‖
1
≤
α
{\displaystyle \Rightarrow {\frac {\|Ax\|_{1}}{\|x\|_{1}}}\leq \alpha \quad \forall x\in K^{n}\setminus \{0\}\Rightarrow \|A\|_{1}\leq \alpha }
Por otro lado, tomando
z
=
e
k
{\displaystyle z=e_{k}}
el
k
{\displaystyle k}
-ésimo vector de la base canónica de
K
n
{\displaystyle K^{n}}
, con
k
=
arg
max
1
≤
j
≤
n
∑
i
=
1
m
|
a
i
j
|
{\displaystyle k=\arg \max \limits _{1\leq j\leq n}\sum _{i=1}^{m}|a_{ij}|}
, tenemos que
‖
A
z
‖
1
‖
z
‖
1
=
∑
j
=
1
n
|
a
k
i
|
1
=
def
k
α
⇒
def. norma inducida
‖
A
‖
1
≥
α
{\displaystyle {\frac {\|Az\|_{1}}{\|z\|_{1}}}={\frac {\sum _{j=1}^{n}{|a_{ki}|}}{1}}{\overset {{\text{def }}k}{=}}\alpha {\overset {\text{def. norma inducida}}{\Rightarrow }}\|A\|_{1}\geq \alpha }
Por todo esto,
‖
A
‖
1
=
α
=
max
1
≤
j
≤
n
∑
i
=
1
m
|
a
i
j
|
{\displaystyle \|A\|_{1}=\alpha =\max \limits _{1\leq j\leq n}\sum _{i=1}^{m}|a_{ij}|}
‖
A
‖
∞
=
max
1
≤
i
≤
m
∑
j
=
1
n
|
a
i
j
|
,
{\displaystyle \left\|A\right\|_{\infty }=\max \limits _{1\leq i\leq m}\sum _{j=1}^{n}|a_{ij}|,}
que es simplemente la máxima suma absoluta de las filas de la matriz.
Demostración:
Sea
β
=
max
1
≤
i
≤
m
∑
j
=
1
n
|
a
i
j
|
.
{\displaystyle \beta =\max \limits _{1\leq i\leq m}\sum _{j=1}^{n}|a_{ij}|.}
Tenemos que
∀
x
∈
K
n
‖
A
x
‖
∞
=
max
1
≤
i
≤
m
|
∑
j
=
1
n
a
i
j
x
j
|
≤
max
1
≤
i
≤
m
|
∑
j
=
1
n
a
i
j
‖
x
‖
∞
|
≤
max
1
≤
i
≤
m
∑
j
=
1
n
|
a
i
j
|
‖
x
‖
∞
=
‖
x
‖
∞
max
1
≤
i
≤
m
∑
j
=
1
n
|
a
i
j
|
=
‖
x
‖
∞
β
⇒
{\displaystyle \forall x\in K^{n}\quad \|Ax\|_{\infty }=\max \limits _{1\leq i\leq m}\left|\sum _{j=1}^{n}{a_{ij}x_{j}}\right|\leq \max \limits _{1\leq i\leq m}\left|\sum _{j=1}^{n}{a_{ij}\|x\|_{\infty }}\right|\leq \max \limits _{1\leq i\leq m}\sum _{j=1}^{n}{|a_{ij}|\|x\|_{\infty }}=\|x\|_{\infty }\max \limits _{1\leq i\leq m}\sum _{j=1}^{n}{|a_{ij}|}=\|x\|_{\infty }\beta \Rightarrow }
⇒
‖
A
x
‖
∞
‖
x
‖
∞
≤
β
∀
x
∈
K
n
∖
{
0
}
⇒
‖
A
‖
∞
≤
β
{\displaystyle \Rightarrow {\frac {\|Ax\|_{\infty }}{\|x\|_{\infty }}}\leq \beta \quad \forall x\in K^{n}\setminus \{0\}\Rightarrow \|A\|_{\infty }\leq \beta }
Por otro lado, si definimos
k
=
arg
max
1
≤
i
≤
m
∑
j
=
1
n
|
a
i
j
|
{\displaystyle k=\arg \max \limits _{1\leq i\leq m}\sum _{j=1}^{n}|a_{ij}|}
y definimos
z
=
(
sgn
(
a
k
1
)
⋮
sgn
(
a
k
n
)
)
{\displaystyle z={\begin{pmatrix}\operatorname {sgn}(a_{k1})\\\vdots \\\operatorname {sgn}(a_{kn})\end{pmatrix}}}
, tenemos que
‖
z
‖
∞
=
1
{\displaystyle \|z\|_{\infty }=1}
y
A
z
=
(
∑
j
=
1
n
sgn
(
a
k
j
)
a
1
j
⋮
∑
j
=
1
n
sgn
(
a
k
j
)
a
n
j
)
{\displaystyle Az={\begin{pmatrix}\sum _{j=1}^{n}{\operatorname {sgn}(a_{kj})a_{1j}}\\\vdots \\\sum _{j=1}^{n}{\operatorname {sgn}(a_{kj})a_{nj}}\end{pmatrix}}}
, por lo que
(
A
z
)
i
=
∑
j
=
1
m
sgn
(
a
k
j
)
a
i
j
≤
∑
j
=
1
m
sgn
(
a
k
j
)
a
i
j
=
∑
j
=
1
m
|
a
i
j
|
≤
def
β
β
=
max
1
≤
i
≤
m
∑
j
=
1
n
|
a
i
j
|
=
def
k
∑
j
=
1
m
|
a
k
j
|
=
∑
j
=
1
m
sgn
(
a
k
j
)
a
k
j
=
(
A
z
)
k
{\displaystyle (Az)_{i}=\sum _{j=1}^{m}{\operatorname {sgn}(a_{kj})a_{ij}}\leq \sum _{j=1}^{m}{\operatorname {sgn}(a_{kj})a_{ij}}=\sum _{j=1}^{m}{|a_{ij}|}{\overset {{\text{def }}\beta }{\leq }}\beta =\max \limits _{1\leq i\leq m}\sum _{j=1}^{n}|a_{ij}|{\overset {{\text{def }}k}{=}}\sum _{j=1}^{m}{|a_{kj}|}=\sum _{j=1}^{m}{\operatorname {sgn}(a_{kj})a_{kj}}=(Az)_{k}}
y
(
A
z
)
i
=
∑
j
=
1
m
sgn
(
a
k
j
)
a
i
j
≥
∑
j
=
1
m
−
sgn
(
a
i
j
)
a
i
j
=
−
∑
j
=
1
m
|
a
i
j
|
≥
−
∑
j
=
1
m
|
a
k
j
|
=
−
(
A
z
)
k
{\displaystyle (Az)_{i}=\sum _{j=1}^{m}{\operatorname {sgn}(a_{kj})a_{ij}}\geq \sum _{j=1}^{m}{-\operatorname {sgn}(a_{ij})a_{ij}}=-\sum _{j=1}^{m}{|a_{ij}|}\geq -\sum _{j=1}^{m}{|a_{kj}|}=-(Az)_{k}}
. Así,
|
(
A
z
)
i
|
≤
|
(
A
z
)
k
|
∀
i
{\displaystyle |(Az)_{i}|\leq |(Az)_{k}|\quad \forall i}
y, por tanto,
‖
A
z
‖
∞
‖
z
‖
∞
=
max
1
≤
i
≤
m
|
(
A
z
)
i
|
=
(
A
z
)
k
=
β
⇒
‖
A
‖
∞
≥
β
{\displaystyle {\frac {\|Az\|_{\infty }}{\|z\|_{\infty }}}=\max \limits _{1\leq i\leq m}|(Az)_{i}|=(Az)_{k}=\beta \Rightarrow \|A\|_{\infty }\geq \beta }
. Por todo esto,
‖
A
‖
∞
=
β
=
max
1
≤
i
≤
m
∑
j
=
1
n
|
a
i
j
|
◻
{\displaystyle \|A\|_{\infty }=\beta =\max \limits _{1\leq i\leq m}\sum _{j=1}^{n}|a_{ij}|\quad \square }
Por ejemplo, si la matriz A se define como
A
=
[
3
5
7
2
6
4
0
2
8
]
,
{\displaystyle A={\begin{bmatrix}3&5&7\\2&6&4\\0&2&8\\\end{bmatrix}},}
se tiene ||A ||1 = Max (5, 13, 19) = 19. y ||A ||∞ = Max (15, 12, 10) = 15
En el caso especial de p = 2 (la norma euclídea ) y m = n (matrices cuadradas), la norma inducida es la norma espectral . La norma espectral de una matriz A es el valor singular más grande de A o la raíz cuadrada del valor propio más grande de la matriz semidefinida-positiva A * A :
‖
A
‖
2
=
λ
max
(
A
∗
A
)
=
σ
max
(
A
)
{\displaystyle \left\|A\right\|_{2}={\sqrt {\lambda _{\text{max}}(A^{^{*}}A)}}=\sigma _{\text{max}}(A)}
donde A * denota la traspuesta conjugada de A .
En el caso más general, uno puede definir una norma matricial subordinada en
R
m
×
n
{\displaystyle \mathbb {R} ^{m\times n}}
inducida por
‖
⋅
‖
α
{\displaystyle \|\cdot \|_{\alpha }}
en
R
n
{\displaystyle \mathbb {R} ^{n}}
, y
‖
⋅
‖
β
{\displaystyle \|\cdot \|_{\beta }}
en
R
m
{\displaystyle \mathbb {R} ^{m}}
como:
‖
A
‖
α
,
β
=
max
x
≠
0
‖
A
x
‖
β
‖
x
‖
α
.
{\displaystyle \left\|A\right\|_{\alpha ,\beta }=\max \limits _{x\neq 0}{\frac {\left\|Ax\right\|_{\beta }}{\left\|x\right\|_{\alpha }}}.}
Las normas subordinadas son consistentes con las normas que las inducen, dando
‖
A
x
‖
β
≤
‖
A
‖
α
,
β
‖
x
‖
α
.
{\displaystyle \|Ax\|_{\beta }\leq \|A\|_{\alpha ,\beta }\|x\|_{\alpha }.}
Demostración:
Si
x
≠
0
{\displaystyle x\neq 0}
, tenemos que
‖
A
x
‖
β
≤
‖
A
‖
α
,
β
‖
x
‖
α
⇔
‖
A
‖
α
,
β
≥
‖
A
x
‖
β
‖
x
‖
α
{\displaystyle \|Ax\|_{\beta }\leq \|A\|_{\alpha ,\beta }\|x\|_{\alpha }\Leftrightarrow \|A\|_{\alpha ,\beta }\geq {\frac {\|Ax\|_{\beta }}{\|x\|_{\alpha }}}}
, lo cual es siempre cierto pues, por definición,
‖
A
‖
α
,
β
=
max
x
≠
0
‖
A
x
‖
β
‖
x
‖
α
.
{\displaystyle \left\|A\right\|_{\alpha ,\beta }=\max \limits _{x\neq 0}{\frac {\left\|Ax\right\|_{\beta }}{\left\|x\right\|_{\alpha }}}.}
Si
x
=
0
{\displaystyle x=0}
,
‖
A
x
‖
β
=
0
{\displaystyle \|Ax\|_{\beta }=0}
y
‖
x
‖
α
=
0
{\displaystyle \|x\|_{\alpha }=0}
, por lo que la desigualdad es trivialmente cierta.
◻
{\displaystyle \quad \square }
Cualquier norma inducida satisface la desigualdad
‖
A
‖
≥
ρ
(
A
)
,
{\displaystyle \left\|A\right\|\geq \rho (A),}
donde ρ(A ) es el radio espectral de A . De hecho, se ρ(A ) es el ínfimo de todas las normas inducidas de A .
Además, para matrices cuadradas se tiene la fórmula del radio espectral:
lim
r
→
∞
‖
A
r
‖
1
/
r
=
ρ
(
A
)
.
{\displaystyle \lim _{r\rightarrow \infty }\|A^{r}\|^{1/r}=\rho (A).}
Normas componente a componente o «Entrywise»
editar
Estas normas tratan una matriz de
m
×
n
{\displaystyle m\times n}
veces como un vector de tamaño
m
n
{\displaystyle mn}
, y el usando una de las normas de vectores conocida.
Por ejemplo, utilizando la p -norma de vectores, obtenemos
‖
A
‖
p
=
(
∑
i
=
1
m
∑
j
=
1
n
|
a
i
j
|
p
)
1
/
p
.
{\displaystyle \Vert A\Vert _{p}=\left(\sum _{i=1}^{m}\sum _{j=1}^{n}|a_{ij}|^{p}\right)^{1/p}.\,}
Para p = 2, esto se llama la norma de Frobenius o norma de Hilbert-Schmidt, aunque este último término es a menudo reservado para los operadores de Espacio de Hilbert . Esta norma se puede definir de varias maneras:
‖
A
‖
F
=
∑
i
=
1
m
∑
j
=
1
n
|
a
i
j
|
2
=
T
r
(
A
T
A
)
=
∑
i
=
1
min
{
m
,
n
}
σ
i
2
{\displaystyle \|A\|_{F}={\sqrt {\sum _{i=1}^{m}\sum _{j=1}^{n}|a_{ij}|^{2}}}={\sqrt {\mathrm {Tr} (A^{T}A)}}={\sqrt {\sum _{i=1}^{\min\{m,\,n\}}\sigma _{i}^{2}}}}
donde
A
T
{\displaystyle A^{T}\,}
denota la traspuesta de
A
{\displaystyle A\,}
,
σ
i
{\displaystyle \sigma _{i}\,}
son los valores singulares de
A
{\displaystyle A\,}
. La norma Frobenius es muy similar a la norma euclidiana en
R
n
{\displaystyle \mathbb {R} ^{n}\,}
y viene de un producto interno en el espacio de todas las matrices.
La norma de Frobenius es submultiplicativa y es muy útil para álgebra lineal numérica . Esta norma es a menudo más fácil de calcular que las normas inducidas.
Golub, Gene ; Charles F. Van Loan (1996). Matrix Computations - Third Edition. Baltimore: The Johns Hopkins University Press , 56-57. ISBN 0-8018-5413-X .
Roger Horn and Charles Johnson. Matrix Analysis, Chapter 5, Cambridge University Press , 1985. ISBN 0-521-38632-2 .
Douglas W. Harder, Matrix Norms and Condition Numbers [1]
James W. Demmel , Applied Numerical Linear Algebra, section 1.7, published by SIAM, 1997.
Carl D. Meyer, Matrix Analysis and Applied Linear Algebra, published by SIAM, 2000. [2]
John Watrous , Theory of Quantum Information, 2.4 Norms of operators , lecture notes, University of Waterloo, 2008.