Контент
Линейная Алгебра
Ортогональность и проекции
Ортогональность векторов и подпространств

Ортогональность векторов и подпространств

Изучение ортогональности позволяет понять ее алгебраические и геометрические свойства, которые станут для нас инструментами для декмопозиции (разложения - альт. термин) пространств на подпространства. Более того это знание поможет нам более широко взглянуть на решение систем линейных уравнений.

Определение ортогональности

Два вектора v,wRnv,w \in \mathbb{R}^n являются ортогональными если

vw=i=1n=0. v^\top w = \sum^{n}_{i=1} = 0.

Два подпространства V,WV, W ортогональны, если для всех vVv \in V и wWw \in W, vv и ww ортогональны.

Пример

В качестве иллюстрации рассмотрим вектор v=(a,b)TR2\mathbf{v} = (a,b)^{T} \in \mathbb{R}^2, где a,bRa,b \in \mathbb{R}. Тогда вектор (b,a)T(-b,a)^{T} ортогонален v\mathbf{v}. Аналогично, прямым вычислением можно установить, что подпространства

V={λ(1,2,3)TλR}R3,W={μ(1,2,1)TμR} V = \{\lambda (1,2,3)^{T} \mid \lambda \in \mathbb{R}\} \subset \mathbb{R}^3, \qquad W = \{\mu (1,-2,1)^{T} \mid \mu \in \mathbb{R}\}

являются ортогональными. В данном случае достаточно проверить ортогональность векторов (1,2,3)T(1,2,3)^{T} и (1,2,1)T(1,-2,1)^{T}. Более того, это отражает общее свойство: чтобы установить ортогональность подпространств VV и WW, достаточно проверить ортогональность векторов, образующих их базисы.

Леммы и следствия ортогональности

Лемма 1 - ортогональность базисов

Из определения ортогональности следует, что если базисы подпространств ортогональны, то и сами подпространства ортогональны, и наоборот. Если более формально, то:

Пускай v1,,vkv_1, \dots, v_k будет базисом подпространства VV. Пускай w1,,wlw_1, \dots, w_l будет базисом подпространства WW. VV и WW ортогональны тогда и только тогда, когда viv_i и wiw_i ортогональны для всех i{1,,k}i \in \{1, \dots, k\} и j{1,,l}j \in \{1, \dots, l\}.

Это очень полезная лемма, так как проверка ортогональности базисов подпространств является эффективным методом подтверждения того, что сами подпространства ортогональны.

Доказательство

Докажем утверждение в обе стороны.

(\Rightarrow) Пусть подпространства VV и WW ортогональны. Тогда для любых базисных векторов viV\mathbf{v}_i \in V, i=1,,ki=1,\dots,k, и wjW\mathbf{w}_j \in W, j=1,,lj=1,\dots,l, выполняется

viTwj=0. \mathbf{v}_i^{T}\mathbf{w}_j = 0.

(\Leftarrow) Пусть теперь

viTwj=0для всех i=1,,k,  j=1,,l. \mathbf{v}_i^{T}\mathbf{w}_j = 0 \quad \text{для всех } i=1,\dots,k,\; j=1,\dots,l.

Возьмём произвольные vV\mathbf{v} \in V и wW\mathbf{w} \in W. Тогда существуют коэффициенты λi,μjR\lambda_i, \mu_j \in \mathbb{R} такие, что

v=i=1kλivi,w=j=1lμjwj. \mathbf{v} = \sum_{i=1}^{k} \lambda_i \mathbf{v}_i, \qquad \mathbf{w} = \sum_{j=1}^{l} \mu_j \mathbf{w}_j.

Тогда

vTw=i=1kj=1lλiμjviTwj=0. \mathbf{v}^{T}\mathbf{w} = \sum_{i=1}^{k}\sum_{j=1}^{l} \lambda_i \mu_j \, \mathbf{v}_i^{T}\mathbf{w}_j = 0.

Следовательно, VV и WW ортогональны. \square

Лемма 2 - линейная независимость ортогональных базисов

Еще одна ценная лемма, гласит следующее:

Пускай VV и WW являются двумя ортогональными подпространствами Rn\mathbb{R}^n. Пускай v1,,vkv_1, \dots, v_k будет базисом подпространства VV. Пускай w1,,wlw_1, \dots, w_l будет базисом подпространства WW. Множество векторов {v1,,vk,w1,,wl}\{v_1, \dots, v_k, w_1, \dots, w_l\} является линейно независимым.

Доказательство

Рассмотрим линейную комбинацию

()i=1kλivi+j=1lμjwj=0. (*) \qquad \sum_{i=1}^{k} \lambda_i \mathbf{v}_i + \sum_{j=1}^{l} \mu_j \mathbf{w}_j = \mathbf{0}.

Покажем, что λi=0\lambda_i = 0 для всех i=1,,ki=1,\dots,k и μj=0\mu_j = 0 для всех j=1,,lj=1,\dots,l.

Обозначим

v=i=1kλivi. \mathbf{v} = \sum_{i=1}^{k} \lambda_i \mathbf{v}_i.

Тогда из ()(*) следует

v=j=1lμjwj. \mathbf{v} = - \sum_{j=1}^{l} \mu_j \mathbf{w}_j.

Вычисляя скалярное произведение с v\mathbf{v}, получаем

vTv=j=1lμjvTwj=0. \mathbf{v}^{T}\mathbf{v} = - \sum_{j=1}^{l} \mu_j \, \mathbf{v}^{T}\mathbf{w}_j = 0.

Следовательно, v=0\mathbf{v} = \mathbf{0}, и тогда ()(*) принимает вид

j=1lμjwj=0. \sum_{j=1}^{l} \mu_j \mathbf{w}_j = \mathbf{0}.

Поскольку векторы v1,,vk\mathbf{v}_1,\dots,\mathbf{v}_k и w1,,wl\mathbf{w}_1,\dots,\mathbf{w}_l линейно независимы, получаем

λi=0иμj=0 \lambda_i = 0 \quad \text{и} \quad \mu_j = 0

для всех i=1,,ki=1,\dots,k и j=1,,lj=1,\dots,l. \square

Факт - объединение базисов дает вновь базис

Из вышеописанной леммы вытекает еще один важный факт об ортогональных подпространствах:

Объединение базисов двух подпространств VV и WW дает вновь базис для подпространства

V+W={λv+μwλ,μR, vV, wW}. \large V + W = \{\lambda v + \mu w \mid \lambda, \mu \in \mathbb{R}, \ v \in V, \ w \in W \}.

Здесь важно заметить, что если VV и WW являются подпространствами Rn\mathbb{R}^n, то и V+WV + W также будет являться подпространством Rn\mathbb{R}^n.

Следствие 3 - пересечение и размерность ортогональных подпространств

Предпоследнее доказательство продемонстрировало, что если вектор vv находится на пересечении двух ортогональных подпространств, то v=0v = 0. Из этого мы можем заключить (как следствие), что если VV и WW являются ортогональными подпространствами, тогда

VW={0}. \large V \cap W = \{0\}.

Более того, если dim(V)=k\dim(V) = k и dim(W)=l\dim(W) = l, тогда

dim(V+W)=k+ln. \large \dim(V+W) = k+l \leq n.

Определение ортогонального дополнения

Пускай VV будет подпространством Rn\mathbb{R}^n. Мы определяем ортогональное дополнение VV, как

V={wRnwv=0 для всех vV}. V^\perp = \{w \in \mathbb{R}^n \mid w^\top v = 0 \text{ для всех } v \in V\}.

То есть это множество всех векторов в Rn\mathbb{R}^n, которые ортогональны для всех vVv \in V. К тому же мы можем заметить, что VV^\perp является тоже подпространством Rn\mathbb{R}^n. Именно благодаря ортогональным подпространствам мы можем делать декомпозицию (разложение) пространства Rn\mathbb{R}^n.

Пример

Пускай ARm×nA \in \mathbb{R}^{m \times n} будет матрицей. Тогда самым явным примером, прямиком следующим из раздела о четырех фундаментальных подпространствах, будут подпространства C(A)C(A^\top) и N(A)N(A). Они являются ортогональными дополнениями относительно друг-друга и, соответственно,

C(A)=R(A)=N(A). C(A^\top)^\perp = R(A)^\perp = N(A).

Это значит, что мы можем разложить пространство Rn\mathbb{R}^n на два ортогональных подпространства: столбцовое пространство C(A)C(A^\top) и нулевое пространство (ядро) N(A)N(A).

Доказательство

Сначала покажем, что N(A)C(AT)N(A) \subseteq C(A^{T})^{\perp}.

Пусть xN(A)\mathbf{x} \in N(A) и возьмём произвольный bC(AT)\mathbf{b} \in C(A^{T}). По определению существует yRm\mathbf{y} \in \mathbb{R}^{m} такое, что b=ATy\mathbf{b} = A^{T}\mathbf{y}. Тогда

bTx=yTAx=0. \mathbf{b}^{T}\mathbf{x} = \mathbf{y}^{T}A\mathbf{x} = 0.

Следовательно, xC(AT)\mathbf{x} \in C(A^{T})^{\perp}.

Теперь докажем обратное включение: C(AT)N(A)C(A^{T})^{\perp} \subseteq N(A). Пусть xC(AT)\mathbf{x} \in C(A^{T})^{\perp}, то есть

bTx=0для всех bC(AT). \mathbf{b}^{T}\mathbf{x} = 0 \quad \text{для всех } \mathbf{b} \in C(A^{T}).

Положим y:=AxRm\mathbf{y} := A\mathbf{x} \in \mathbb{R}^{m} и возьмём b:=ATyC(AT)\mathbf{b} := A^{T}\mathbf{y} \in C(A^{T}). Тогда xTb=0\mathbf{x}^{T}\mathbf{b}=0, и потому

0=xTb=xTATy=xTATAx=Ax2. 0 = \mathbf{x}^{T}\mathbf{b} = \mathbf{x}^{T}A^{T}\mathbf{y} = \mathbf{x}^{T}A^{T}A\mathbf{x} = \|A\mathbf{x}\|^{2}.

Отсюда Ax=0A\mathbf{x}=\mathbf{0}, то есть xN(A)\mathbf{x} \in N(A). \square

Теорема ортогональных подпространств

Пускай V,WV, W являются ортогональными подпространствами Rn\mathbb{R}^n.

Следующие утверждения эквивалентны:

  1. W=VW = V^\perp
  2. dim(V)+dim(W)=n\dim(V)+\dim(W)=n
  3. Каждый вектор uRnu \in \mathbb{R}^n может быть выражен как u=v+wu = v + w при помощи уникальных векторов vV,wWv \in V, w \in W.
Доказательство

Пусть v1,,vk\mathbf{v}_1,\dots,\mathbf{v}_k — базис VV, а w1,,wl\mathbf{w}_1,\dots,\mathbf{w}_l — базис WW. По лемме 1 подпространства VV и WW ортогональны тогда и только тогда, когда

viTwj=0для всех i=1,,k,  j=1,,l. \mathbf{v}_i^{T}\mathbf{w}_j = 0 \quad \text{для всех } i=1,\dots,k,\; j=1,\dots,l.

1 \Rightarrow 2. Определим матрицу ARk×nA \in \mathbb{R}^{k \times n}, строками которой являются v1,,vk\mathbf{v}_1,\dots,\mathbf{v}_k. Тогда

V=R(A)=C(AT). V = R(A) = C(A^{T}).

Кроме того, из вышеприведенного примера

W=V=N(A). W = V^{\perp} = N(A).

Следовательно, dim(V)=k\dim(V) = k и потому dim(W)=nk\dim(W) = n-k. 2 \Rightarrow 3. По лемме 2 система векторов

{v1,,vk,w1,,wl} \{\mathbf{v}_1,\dots,\mathbf{v}_k, \mathbf{w}_1,\dots,\mathbf{w}_l\}

линейно независима. Поскольку l=nkl=n-k, эта система образует базис Rn\mathbb{R}^n. Значит, любой вектор uRn\mathbf{u} \in \mathbb{R}^n единственным образом представляется в виде

u=i=1kλivi+j=1lμjwj,λi,μjR. \mathbf{u} = \sum_{i=1}^{k} \lambda_i \mathbf{v}_i + \sum_{j=1}^{l} \mu_j \mathbf{w}_j, \qquad \lambda_i,\mu_j \in \mathbb{R}.

Обозначим

v:=i=1kλivi,w:=j=1lμjwj. \mathbf{v} := \sum_{i=1}^{k} \lambda_i \mathbf{v}_i, \qquad \mathbf{w} := \sum_{j=1}^{l} \mu_j \mathbf{w}_j.

3 \Rightarrow 1. Покажем, что W=VW = V^{\perp}. Так как WW ортогонально VV, имеем WVW \subseteq V^{\perp}. Пусть теперь uV\mathbf{u} \in V^{\perp}. По предположению в 3, мы знаем, что

u=v+w,vV,  wW. \mathbf{u} = \mathbf{v} + \mathbf{w}, \quad \mathbf{v} \in V,\; \mathbf{w} \in W.

Тогда

0=uTv=vTv+wTv=v2. 0 = \mathbf{u}^{T}\mathbf{v} = \mathbf{v}^{T}\mathbf{v} + \mathbf{w}^{T}\mathbf{v} = \|\mathbf{v}\|^{2}.

Следовательно, v=0\mathbf{v}=\mathbf{0} и потому u=wW\mathbf{u}=\mathbf{w}\in W. Значит, VWV^{\perp} \subseteq W, откуда W=VW = V^{\perp}. \square

Дополнительные леммы, основанные на теореме

Лемма 4 - двойное ортогональное дополнение

Пускай VV будет подпространством Rn\mathbb{R}^n. Тогда

V=(V). \large V = (V^\perp)^\perp.

Лемма 5 - ортогональное дополнение ядра матрицы

Лемма 4 вместе с предыдущей теоремой дает нам возможность заключить, что

N(A)=C(A)  и  N(A)=C(A). N(A) = C(A^\top)^\perp \ \text{ и } \ N(A)^\perp = C(A^\top).

Лемма 6 - равные ядра и столбцовые пространства

Наконец, ещё одна лемма, которая поможет нам позже в разборе проекций:

N(A)=N(AA)  и  C(A)=C(AA). N(A) = N(A^\top A) \ \text{ и } \ C(A^\top) = C(A^\top A).
Доказательство

Если xN(A)x \in N(A), тогда Ax=0Ax = 0 и также AAx=0A^\top Ax = 0, соответственно xN(AA)x \in N(A^\top A).

Теперь другое направление: Если xN(AA)x \in N(A^\top A) тогда AAx=0A^\top Ax = 0. Из этого следует::

0=x0=xAAx=(Ax)(Ax)=Ax2. 0 = x^\top 0 = x^\top A^\top Ax = (Ax)^\top (Ax) = \| Ax \|^2.

Это показывает, что вектор AxAx должен быть вектором с нормой равной 00, что означает Ax=0Ax=0, то есть xN(A)x \in N(A).

\square

Для второго утверждения мы используем факт, что N(A)=N(AA)N(A) = N(A^\top A) и C(A)=C(AA)C(A^\top) = C(A^\top A):

C(A)=N(A)=N(AA)=C((AA))=C(AA). C(A^\top) = N(A)^\perp = N(A^\top A)^\perp = C((A^\top A)^\top) = C(A^\top A).

\square