Apéndice 6: Espacio vectorial euclídeo

Transcripción

Apéndice 6: Espacio vectorial euclídeo
Apéndice 6: Espacio vectorial euclídeo
1
Algunos ejemplos de productos escalares y de aplicaciones
bilineales o no que no son productos escalares
Ejemplos:
1. En R2 :
(x, y) · (x0 , y 0 ) = 3 − xx0 + 2yx0 .
Ésta no es bilineal porque
(0, 0) · (x0 , y 0 ) = 3,
y debería salir nulo.
2. En R2 :
(x, y) · (x0 , y 0 ) = x − yy 0 + xy 0 .
Ésta no es bilineal porque
(1, 0) · (0, 0) = 1,
y debería salir nulo.
3. En R2 :
(x, y) · (x0 , y 0 ) = xy + 3yx0 .
Ésta no es bilineal porque (1, 1) · (0, 0) = 1, y debería salir nulo.
4. En R2 :
(x, y) · (x0 , y 0 ) = x2 x0 + yy 0 .
Ésta no es bilineal porque (2, 2) · (1, 1) = 4 y debería coincidir con 2[(1, 1) · (1, 1)] = 2 · 1 = 2.
5. En R2 :
(x, y) · (x0 , y 0 ) = xx0 + yx0 .
Sí es bilineal, basta utilizar la definición:
(i)
[(x1 , y1 ) + (x2 , y2 )] · (x0 , y 0 ) = (x1 + x2 , y1 + y2 ) · (x0 , y 0 ) =
= (x1 + x2 )x0 + (y1 + y2 )x0 = x1 x0 + x2 x0 + y1 x0 + y2 x0
y
(x1 , y1 ) · (x0 , y 0 ) + (x2 , y2 ) · (x0 , y 0 ) = x1 x0 + y1 y 0 + x2 x0 + y2 x0
y ambas cosas coinciden.
(i0 )
(x, y) · [(x01 , y10 ) + (x02 , y20 )] = (x, y) · (x01 + x02 , y10 + y20 ) =
= x(x01 + x02 ) + y(x01 + x02 ) = xx01 + xx02 + yx01 + yx02
1
y
(x, y) · (x01 , y10 ) + (x, y) · (x02 , y20 ) = xx01 + yx01 + xx02 + yx02
y ambas cosas coinciden.
(ii)
[α(x, y)] · (x0 , y 0 ) = (αx, αy) · (x0 , y 0 ) =
= (αx)x0 + (αy)x0 = α(xx0 + yx0 ) = α[(x, y) · (x0 , y 0 )]
y también
(x, y) · [α(x0 , y 0 )] = (x, y) · (αx0 , αy 0 ) =
= x(αx0 ) + y(αy 0 ) = α(xx0 + yx0 ) = α[(x, y) · (x0 , y 0 )].
Ahora bien, esta aplicación bilineal no es simétrica (luego no es un producto escalar), pues
(1, 2) · (0, 3) = 1 · 0 + 2 · 0 = 0
y sin embargo no coincide con
(0, 3) · (1, 2) = 0 · 1 + 3 · 2 = 6.
6. En P2 [R], el espacio vectorial de los polinomios de grado menor o igual que 2:
Zb
p(x) · q(x) = p(x)q(x)dx
a
donde [a, b] es cualquier intervalo de la recta real.
1. Es bilineal:
(i)
Zb
[p1 (x) + p2 (x)] · q(x) = [p1 (x) + p2 (x)]q(x)dx =
a
Zb
= [p1 (x)q(x) + p2 (x)q(x)]dx =
a
Zb
Zb
= p1 (x)q(x)dx+
p2 (x)q(x)dx = p1 (x) · q(x) + p2 (x) · q(x).
a
a
(i0 )
Zb
p(x) · [q1 (x) + q2 (x)] = p(x)[q1 (x) + q2 (x)]dx =
a
Zb
= [p(x)q1 (x) + p(x)q2 (x)]dx =
a
2
Zb
Zb
= p(x)q1 (x)dx+
p(x)q2 (x)dx = p(x) · q2 (x) + p(x) · q2 (x).
a
a
(ii)
Zb
[αp(x)] · q(x) = [αp(x)]q(x)dx =
a
Zb
Zb
= αp(x)q(x)dx = α
p(x)q(x)dx = α[p(x) · q(x)]
a
a
y del mismo modo
Zb
p(x) · [αq(x)] = p(x)[αq(x)]dx =
a
Zb
= αp(x)q(x)dx =
a
=α
Zb
p(x)q(x)dx = α[p(x) · q(x)].
a
2. Es simétrica:
Zb
p(x) · q(x) = p(x)q(x)dx =
a
Zb
= q(x)p(x)dx = q(x) · p(x).
a
3. Es definida positiva: Si p(x) es un polinomio cualquiera se tiene que p(x)2 ≥ 0 para todo x
luego
Zb
Zb
p(x) · p(x) = p(x)p(x)dx = p(x)2 dx ≥ 0.
a
a
Para que esta cantidad fuese nula, como la integral de una función representa el área que
encierra la gráfica, el único modo para ello, teniendo en cuenta que la gráfica de la función está
en el semiplano superior, sería que p(x) fuese la función nula. Hemos demostrado pues que el
único vector p(x) que cumple que p(x) · p(x) = 0 es el vector nulo p(x) = 0.
A continuación vemos un modo de comprobar si una aplicación bilineal es un producto escalar.
Propiedad: Sea ”·”: V × V → R una aplicación bilineal, con V un espacio vectorial real, y sea
B = {v1 , v2 ..., vn } una base de V . Entonces ”·” es un producto escalar si y sólo si la matriz
⎞
⎛
v1 · v1 v1 · v2 .... v1 · vn
⎜ v · v v · v .... v · v ⎟
⎜ 2 1 2 2
2
n ⎟
⎟
⎜
⎠
⎝ ....
....
.... ....
vn · v1 vn · v2 .... vn · vn
3
es simétrica y definida positiva (esto último significa que los menores principales de la matriz
[los que se forman para cada k = 1, 2, ..., n tomando las k primeras filas y las k primeras columnas]
son todos positivos). A ésta se le denomina la matriz de Gram.
Ejemplos: Determinar si las siguientes aplicaciones bilineales son o no productos escalares:
1. En R2
(x, y) · (x0 , y 0 ) = 2xx0 + 2xy 0 + 2yy 0
Como la matriz que se obtiene tomando la base canónica de R2 es
⎛
⎞
(1, 0) · (1, 0)
(1, 0) · (0, 1)
⎜
⎟
⎝
⎠=
(0, 1) · (1, 0)
(0, 1) · (0, 1)
⎛
⎜
=⎝
2·1·1+2·1·0+2·0·0
2·1·0+2·1·1+2·0·1
2·0·1+2·0·0+2·1·0
Ã
2·0·0+2·0·1+2·1·1
!
2 2
0 2
=
⎞
⎟
⎠=
y ésta no es simétrica, se tiene que no es un producto escalar.
2. En R2
(x, y) · (x0 , y 0 ) = xx0 + xy 0 + yx0 + yy 0
La matriz que se obtiene tomando la base
{(2, 0), (1, −1)}
de R2 es
⎛
⎜
=⎝
⎛
⎜
⎝
(2, 0) · (2, 0)
(2, 0) · (1, −1)
(1, −1) · (2, 0)
(1, −1) · (1, −1)
2·2+2·0+0·2+0·0
⎞
⎟
⎠=
2 · 1 + 2 · (−1) + 0 · 1 + 0 · (−1)
1 · 2 + 1 · 0 + (−1) · 2 + (−1) · 0
=
Ã
1 · 1 + 1 · (−1) + (−1) · 1 + (−1) · (−1)
!
4 0
0 0
por lo que ésta es simétrica. Los determinantes principales valen
¯
¯
¯ 4 0 ¯
¯
¯
4
y
¯=0
¯
¯ 0 0 ¯
luego no es definida positiva. Así no es un producto escalar.
4
⎞
⎟
⎠
3. En R3
(x, y, z) · (x0 , y 0 , z 0 ) = xx0 + 2xy 0 + 2yx0 − yz 0 − zy 0 + 5yy 0
Tomando base canónica de R3 obtenemos la matriz
⎞
⎛
1
2
0
⎟
⎜
5 −1 ⎠
⎝ 2
0 −1
0
y ésta es simétrica. Los determinantes principales valen
¯
¯
¯ 1
¯
¯
2
0 ¯¯
¯
¯ 1 2 ¯
¯
¯
¯
¯
1 > 0, ¯
5 −1 ¯ = −1 < 0
¯=1>0y ¯ 2
¯
¯
¯ 2 5 ¯
¯ 0 −1
0 ¯
luego no es definida positiva. Así no es un producto escalar.
4. En R2
(x, y) · (x0 , y 0 ) = 4xx0 + 2yy 0 − 2xy 0 − 2yx0
A partir de la base canónica de R2 se obtiene la matriz
Ã
!
4 −2
−2
2
que es simétrica. Los determinantes principales valen
¯
¯
¯ 4 −2 ¯
¯
¯
4>0y ¯
¯=4>0
¯ −2
2 ¯
luego es definida positiva. Así la aplicación bilineal es un producto escalar.
5. En R3
(x, y, z) · (x0 , y 0 , z 0 ) = 2xx0 − 2xy 0 − 2yx0 + xz 0 + zx0 + 3yy 0 + 6zz 0
Tomando base canónica de R3 obtenemos la matriz
⎞
⎛
2 −2 1
⎟
⎜
3 0 ⎠
⎝ −2
1
0 6
y ésta es simétrica. Los determinantes principales valen
¯
¯
¯ 2 −2 1 ¯
¯
¯
¯
¯
¯ 2 −2 ¯
¯
¯
¯
¯
2 > 0, ¯
3 0 ¯=9>0
¯ = 2 > 0 y ¯ −2
¯
¯
¯ −2
3 ¯
¯ 1
0 6 ¯
luego es definida positiva. Así es un producto escalar.
5
2
Propiedades de la norma
Propiedad: Sea (V, ·) un espacio vectorial euclídeo. Entonces se verifican las siguientes propiedades:
1. kvk ≥ 0, para cualquier vector v ∈ V . De hecho kvk = 0 si y sólo si v = 0.
2. kαvk = |α| kvk, para todo α ∈ R y todo v ∈ V (donde |α| indica el valor absoluto de α).
3. Para todo u, v ∈ V se tiene que |u · v| ≤ kuk · kvk (Desigualdad de Cauchy-Schwarz).
4. Para todo u, v ∈ V se tiene que ku + vk ≤ kuk+kvk y ku + vk ≥ | kuk − kvk |(Desigualdades
triangulares).
3
Mínimos cuadrados
Existe una aplicación práctica interesante en este tema, la resolución de sistemas sobredeterminados
mediante el método de los mínimos cuadrados. La idea consiste en dado un sistema de ecuaciones
AX = B (cuya matriz de coeficientes es de orden m × n) que sea incompatible, buscar lo más
parecido a la solución, es decir, un vector X tal que AX sea lo más ”próximo” a B que sea posible.
El sentido que nosotros le damos a lo de ”próximo” es que kAX − Bk sea lo más pequeño posible.
Así, nuestro problema consiste en encontrar el valor X0 donde se alcanza el mínimo del conjunto
H = {kAX − Bk : X ∈ K n }.
La matriz A representará a una aplicación lineal f : K n → K m respecto de las bases canónicas
respectivas. Por ello H = {kY − Bk : Y ∈ Im f }, con lo que obtendremos el mínimo, según ya hemos
visto, cuando Y0 es la proyección ortogonal de B sobre el subespacio Im f . Entonces la solución a
nuestro problema serán los vectores del conjunto {X ∈ K n : AX = Y0 } = f −1 (Y0 ). Dicho conjunto
es no vacío debido a que Y0 ∈ Im f , pero nos interesa sobre todo la situación en que este conjunto
sea unitario. Por ello debemos imponer como condición inicial que f sea inyectiva (lo cual equivale
a que r(A) = n < m). En tal caso el sistema At Ax = At B tiene n ecuaciones y n incógnitas y es un
SCD. Además la única solución de este sistema es precisamente la solución del problema de mínimos
−1
−1
cuadrados anterior. Por tanto ésta es X0 = (At A) At B. A la matriz (At A) At se la denomina la
pseudoinversa de A, la cual existe siempre que r(A) = n < m. Observemos que si A es una matriz
cuadrada invertible entonces la pseudoinversa de A y la inversa son la misma matriz.
Un caso interesante en el que puede utilizarse este método se tiene cuando tratamos de ajustar
un polinomio (por ejemplo una recta o parábola) a una serie de datos con la mayor aproximación
posible. Así es el caso cuando tenemos una serie de puntos (a1 , b1 ), (a2 , b2 ), ..., (am , bm ), y se trata de
encontrar una recta y = Mx + N que esté ”cercana” a todos ellos, en el sentido de que al sistema
de ecuaciones b1 = a1 M + N, b2 = a2 M + N, ..., , bm = am M + N podamos buscarle el vector más
próximo a la solución, es decir, la solución del método de los mínimos cuadrados.
6