定义 6.10:二维旋转矩阵
一个 $2\times 2$ 的旋转矩阵定义为
\begin{align}
\mx{R}(\phi) = &
\left(\begin{array}{rr}
\cos \phi & -\sin \phi \\
\sin \phi & \cos \phi
\end{array}
\right),
\end{align}
其中 $\phi$ 是矩阵旋转的弧度数(逆时针方向)。
公式 9.6:
\begin{equation}
\begin{cases}
y_1 = \cos(\frac{\pi}{3}) x_1 - \sin(\frac{\pi}{3}) x_2, \\
y_2 = \sin(\frac{\pi}{3}) x_1 + \cos(\frac{\pi}{3}) x_2.
\end{cases}
\end{equation}
公式 9.12:
\begin{align}
\vc{x} & = x_1 \vc{e}_1 + x_2 \vc{e}_2,\\
\vc{y} & = y_1 \vc{e}_1 + y_2 \vc{e}_2.\\
\end{align}
定理 6.1:矩阵运算性质
下列运算均假设矩阵大小满足定义要求。
\begin{equation}
\begin{array}{llr}
(i) & k(l\mx{A}) = (kl)\mx{A} & \spc\text{(associativity)} \\
(ii) & (k+l)\mx{A} = k\mx{A} +l\mx{A} & \spc\text{(distributivity)} \\
(iii) & k(\mx{A}+\mx{B}) = k\mx{A} +k\mx{B} & \spc\text{(distributivity)} \\
(iv) & \mx{A} + \mx{B} = \mx{B} + \mx{A} & \spc\text{(commutativity)} \\
(v) & \mx{A}+(\mx{B}+\mx{C})=(\mx{A}+\mx{B})+\mx{C} & \spc\text{(associativity)} \\
(vi) & \mx{A}+ (-1)\mx{A} = \mx{O} & \spc\text{(additive inverse)} \\
(vii) & \mx{A}(\mx{B}+\mx{C})=\mx{A}\mx{B}+\mx{A}\mx{C} & \spc\text{(distributivity)} \\
(viii) & (\mx{A}+\mx{B})\mx{C}=\mx{A}\mx{C}+\mx{B}\mx{C} & \spc\text{(distributivity)} \\
(ix) & (\mx{A}\mx{B})\mx{C}=\mx{A}(\mx{B}\mx{C}) & \spc\text{(associativity)} \\
(x) & \mx{I}\mx{A}=\mx{A}\mx{I}=\mx{A} & \spc\text{(multiplicative one)} \\
(xi) & (k\mx{A})^\T=k\mx{A}^\T & \spc\text{(transpose rule 1)} \\
(xii) & (\mx{A}+\mx{B})^\T=\mx{A}^\T+\mx{B}^\T & \spc\text{(transpose rule 2)} \\
(xiii) & (\mx{A}^\T)^\T=\mx{A} & \spc\text{(transpose rule 3)} \\
(xiv) & (\mx{A}\mx{B})^\T=\mx{B}^\T\mx{A}^\T & \spc\text{(transpose rule 4)} \\
\end{array}
\end{equation}
此外,我们有以下平凡的规则集:$1\mx{A}=\mx{A}$,$0\mx{A}=\mx{O}$,
另外还有如下简单规则:$1\mx{A}=\mx{A}$,$0\mx{A}=\mx{O}$,$k\mx{O}=\mx{O}$,$\mx{A}+\mx{O}=\mx{A}$。
定理 9.1:线性映射的矩阵形式
映射 $\vc{y} = F(\vc{x})$ 当且仅当是线性的,才能写成 $\vc{y} = \mx{A}\vc{x}$(矩阵形式)。
定理 6.9: 设 $\mx{A}$ 为方阵,下列条件等价:
- $\mx{A}$ 的列向量张成 $\R^p$。
- $\mx{A}$ 的行向量张成 $\R^p$。
- 对任意 $\vc{y}$,方程 $\mx{A} \vc{x} = \vc{y}$ 有解。
- $\mx{A}$ 的列向量线性无关。
- $\mx{A}$ 的行向量线性无关。
- 方程 $\mx{A} \vc{x} = \vc{0}$ 只有零解。
- $\mx{A}$ 可逆。
定理 9.2:基向量的映射
对于线性映射 $\vc{y} = F(\vc{x})$,若写作 $\vc{y} = \mx{A}\vc{x}$,则 $\mx{A}$ 的列向量即为基向量的像:$\vc{a}_{,1} = F(\vc{e}_1), \vc{a}_{,2} = F(\vc{e}_2), ...$
定义 5.2:线性无关与相关
向量组 $\vc{v}_1,\dots,\vc{v}_n$ 线性无关,当且仅当方程
\begin{equation}
k_1\vc{v}_1 + k_2 \vc{v}_2 + \dots + k_n \vc{v}_n = \vc{0},
\end{equation}
只有唯一解
\begin{equation}
k_1 = k_2 = \dots = k_n =0.
\end{equation}
否则线性相关。
定理 9.4:逆映射的等价性 对于线性映射 $\vc{y} = F(\vc{x})$,下列三条等价:
- 映射 $F$ 是双射。
- $F$ 的变换矩阵可逆。
- 基向量的像 $F(\vc{e}_1), ..., F(\vc{e}_n)$ 构成 $\mathbb{R}^n$ 的一组基。
定理 7.10:
对所有方阵 $\mx{A}$,下列条件等价:
\begin{equation}
\begin{array}{ll}
(i) & \spc\text{列向量是基} \\
(ii) & \spc\text{行向量是基} \\
(iii) & \spc\text{方程} \mx{A} \vc{x} = 0 \text{只有零解} \\
(iv) & \spc\text{方程} \mx{A} \vc{x} = \vc{y} \text{对任意} \vc{y} \text{有解} \\
(v) & \spc\text{矩阵} \mx{A} \text{可逆} \\
(vi) & \spc\det \mx{A} \neq 0 \\
\end{array}
\end{equation}
定理 7.1:行列式的性质
\begin{equation}
\begin{array}{llr}
(iv) & \begin{vmatrix} \ldots & \vc{0} & \ldots \end{vmatrix}
= 0 & \spc\text{(zero if one column is zero)} \\
(v) & \begin{vmatrix} \ldots & \vc{a}_i & \ldots & \vc{a}_j & \ldots \end{vmatrix}
= -
\begin{vmatrix} \ldots & \vc{a}_j & \ldots & \vc{a}_i & \ldots \end{vmatrix}
& \spc\text{(swapping columns)} \\
(vi) & \begin{vmatrix} \ldots & \vc{a}_i & \ldots & \vc{a}_j & \ldots \end{vmatrix}
=
\begin{vmatrix} \ldots & \vc{a}_i+\lambda \vc{a}_j & \ldots & \vc{a}_j & \ldots \end{vmatrix}
& \spc\text{(adding to another column)} \\
(vii) & \det( \mx{A}) = \det( \mx{A}^\T) & \spc\text{(transpose)} \\
(viii) & \det( \mx{A} \mx{B}) = \det( \mx{A}) \det( \mx{B}) & \spc\text{(product)} \\
(ix) & \det( \mx{A}^{-1}) = \frac{1}{\det( \mx{A})} & \spc\text{(inverse)} \\
\end{array}
\end{equation}
第九章:线性映射
一种特殊的函数,因为它简单而又强大。
本章讨论。就是一个函数,输入一个向量,输出另一个向量。是一类非常有用的特殊函数,既简单又强大。
例 9.1:
图像压缩
待编码的图像被分成块,例如 $4 \times 4$ 像素块。通常会对每个块直接应用一个变换。第一步是将 $4\times 4$ 块按列堆叠成一个 16 维向量 $\vc{x}$,然后用变换矩阵 $\mx{A}$ 乘以该向量,得到新的 16 维向量 $\vc{y}=\mx{A}\vc{x}$,再将其拆分回 $4\times 4$ 图像块。可以看到,变换后的块彼此更加相似:块的第一个值变化较大,但大多数值接近零(图像中为灰色),这意味着这些值可以忽略(设为零)或用更少的比特表示。解码器得到 $\hat{\vc{y}}$,它是 $\vc{y}$ 的近似值,因为部分值可能被设为零或被近似处理。解码器再执行逆变换 $\hat{\vc{x}} = \mx{A}^{-1} \hat{\vc{y}}$,恢复像素亮度的近似值。
在实际工程问题中非常常见。例如在
图像或
视频压缩中,待编码的图像会被分成若干块,如
图 9.1所示的 $4 \times 4$ 像素块。
与其直接编码每个像素的亮度,不如对每个块进行变换。第一步是将 $4\times 4$ 块按列堆叠成一个 16 维向量 $\vc{x}$。然后用变换矩阵 $\mx{A}$ 乘以该向量,得到新的 16 维向量 $\vc{y} =\mx{A}\vc{x}$,再将其拆分回 $4 \times 4$ 图像块。可以看到,变换后的块彼此更加相似。块的第一个值变化较大,但大多数值接近零(图像中为灰色),这意味着这些值可以忽略(设为零)或用更少的比特表示。解码器得到 $\hat{\vc{y}}$,它是 $\vc{y}$ 的近似值,因为部分值可能被设为零或近似处理。解码器再执行逆变换 $\hat{\vc{x}} =\mx{A}^{-1} \hat{\vc{y}}$,恢复像素亮度的近似值。
实际编码器比上述过程更复杂,包含许多优化。例如,并不直接用矩阵乘法实现,而是用更快但数学上等价的方法。
在
交互式演示 9.2 中,我们展示了一个示例,说明如何在图像上改变可变性。
本章首先回顾什么是针对实数(标量)的或函数,然后再讨论向量。
定义 9.1:
映射
一个
$F$ 是一个规则,对于集合 $N$ 中的每一项,都提供集合 $M$ 中的一项
|
\begin{equation}
F: N \rightarrow M.
\end{equation}
|
(9.1)
|
这看起来很抽象,但实际上你已经在处理,只不过通常称为
函数。另一种表达方式是:
|
\begin{equation}
y = F(x).
\end{equation}
|
(9.2)
|
这种形式
|
\begin{equation}
F: x \rightarrow y, x \in N.
\end{equation}
|
(9.3)
|
也常用。例如函数 $y = x^2$(见
图 9.3),它的规则是:对于实数集合 $\mathbb{R}$ 中的每个元素,给出另一个实数。此例中,$N$ 和 $M$ 都是 $\mathbb{R}$。
在线性代数中,通常使用
一词而不是函数,但含义是一样的,即你从一个元素 $x$ 出发,得到一个元素 $y$。我们说 $x$
映射到 $y$。注意每个 $x$ 只能映射到一个 $y$。这意味着
图 9.4中的曲线不能作为函数 $y =f(x)$ 的图像,因为例如 $x=1$ 会对应两个 $y$ 值,即 $+1$ 和 $-1$。
集合 $N$ 被称为
,而 $M$ 被称为
。的子集是可以由到达的,被称为
或
,我们用
$V_F$。这总结在以下定义中。
定义 9.1:
映射
一个
$F$ 是一种规则,对于集合 $N$ 中的每个元素,
都在另一个集合 $M$ 中给出一个元素。
|
\begin{equation}
V_F = \{F(x) | x \in N\}.
\end{equation}
|
(9.4)
|
竖线符号应读作“使得”或“具有……性质”。在本例中,该表达式可理解为:“$V_F$ 是所有 $x$ 属于集合 $N$ 时 $F(x)$ 的集合”。
对于 $y=x^2$ 这个例子,是所有非负实数(包括零),即 $V_F = \mathbb{R}_{\geq 0}$。因此在此情况下,我们只覆盖了的一个子集,即 $V_F$ 是 $M$ 的子集。
在线性代数中,函数的输入和输出都是向量而不是标量。假设我们有一个坐标系 \(\vc{e}_1,\vc{e}_2\),向量 \(\vc{x}\) 的坐标表示为
\(\begin{pmatrix}x_1 \\\\ x_2 \end{pmatrix}\)。现在可以定义一个函数 \(\vc{y}=F(\vc{x})\),它将每个 \(\vc{x}\) 映射为新的向量 \(\vc{y}=\begin{pmatrix}y_1 \\\\ y_2\end{pmatrix}\),例如:
|
\begin{equation}
\begin{cases}
y_1 = x_1 \\
y_2 = 0
\end{cases}
\end{equation}
|
(9.5)
|
无法为此画出简单的图形,因为需要四维空间(输入需要两维,输出需要两维)。然而,通过在同一个图中绘制输入和输出,往往可以获得对该的直观理解。
交互式演示 9.5
展示了上述的效果。你可以移动红色输入箭头 $\vc{x}$,观察蓝色输出箭头 $\vc{y}$ 的变化。
可以看到,这个的作用是将任意输入向量投影到 $\vc{e}_1$ 轴上。平面上的任意向量都可以作为输入,因此是 $\mathbb{R}^2$。也是 $\mathbb{R}^2$,因为输出仍是二维向量,但(或像)是 $\vc{e}_1$ 轴。值域在图的第二步中用绿色标记。
一个稍微更有趣的例子是以下
|
\begin{equation}
\begin{cases}
y_1 = \cos(\frac{\pi}{3}) x_1 - \sin(\frac{\pi}{3}) x_2, \\
y_2 = \sin(\frac{\pi}{3}) x_1 + \cos(\frac{\pi}{3}) x_2.
\end{cases}
\end{equation}
|
(9.6)
|
可以看到,$x_1$ 和 $x_2$ 前的系数类似于一个旋转矩阵(参见
定义 6.10),旋转角度为 $\pi/3$。
这个在
交互式图示 9.6中展示,输入向量用红色标记,输出向量用蓝色标记。
我们现在已经了解,向量其实就是以向量为输入并输出另一个向量的函数。接下来我们将探讨这些在何时可以用矩阵来表示。
通过操作
交互式图示 9.6可以看到,输出向量是输入向量绕原点旋转 $\frac{\pi}{3}$ 后的结果。实际上,我们可以将
公式 (9.6)写成矩阵形式:
|
\begin{equation}
\begin{pmatrix}
y_1 \\
y_2
\end{pmatrix}
= \left(\begin{array}{rr}
\cos \frac{\pi}{3} & -\sin \frac{\pi}{3} \\
\sin \frac{\pi}{3} & \cos \frac{\pi}{3}
\end{array}\right)
\begin{pmatrix}
x_1 \\
x_2
\end{pmatrix}
\end{equation}
|
(9.7)
|
或者更简洁的形式,
|
\begin{equation}
\vc{y} = \mx{A} \vc{x}.
\end{equation}
|
(9.8)
|
现在很容易看出,矩阵 $\mx{A}$ 就是
第 6 章中
定义 6.10的二维旋转矩阵。当一个可以写成矩阵形式,即 $\vc{y} = \mx{A} \vc{x}$,我们称 $\mx{A}$ 为
变换矩阵。
交互式图示 9.3中的例子也可以写成矩阵形式:
|
\begin{equation}
\begin{pmatrix}
y_1 \\
y_2
\end{pmatrix}
= \left(\begin{array}{rr}
1 & 0 \\
0 & 0
\end{array}\right)
\begin{pmatrix}
x_1 \\
x_2
\end{pmatrix},
\end{equation}
|
(9.9)
|
此时的变换矩阵为 $\left(\begin{array}{rr} 1 & 0 \\ 0 & 0 \end{array}\right)$。这就引出了一个问题:是否所有向量都能写成 $\vc{y} = \mx{A} \vc{x}$ 的形式,其中 $\mx{A}$ 是常数矩阵?答案是否定的。例如,考虑如下:
|
\begin{equation}
\begin{cases}
y_1 = x_1 x_2 + x_2\\
y_2 = x_1 + e^{x_2}
\end{cases}
\end{equation}
|
(9.10)
|
该映射不能写成 $\vc{y} = \mx{A}\vc{x}$ 的形式。当然可以把它写成
\(\begin{pmatrix} y_1 \\\\ y_2 \end{pmatrix} = \left(\begin{array}{rr} x_2 & 1 \\\\ 1 & \frac{e^{x_2}}{x_2} \end{array}\right) \begin{pmatrix} x_1 \\\\ x_2 \end{pmatrix}\),
但那就违反了 $\mx{A}$ 应当由常数系数构成(即不依赖于 $\vc{x}$)的规则。
为了研究哪些可以写成这种形式,首先引入
“线性映射”的概念:
的。
定义 9.3:
线性映射
是一个 $F$,它满足
|
\begin{equation}
\begin{cases}
F( \vc{x}' + \vc{x}'') = F(\vc{x}') + F(\vc{x}''), \\
F( \lambda \vc{x} ) = \lambda F(\vc{x}). \\
\end{cases}
\end{equation}
|
(9.11)
|
第一个条件的直观解释是:无论先求和再应用函数,还是先分别应用函数再求和,得到的结果都是一样的。第二个条件说明按某个因数扩大输入,与扩大输出的效果相同。
例 9.2:
购物车到总价
假设商店只卖通心粉、阿拉比亚塔酱和巧克力。你的购物车内容可以建模为一个向量空间。
两个购物车相加就是把所有商品放到一个车里。标量乘法就是把购物车里的商品数量乘以该标量。注意,实际中购物车乘以非整数或负数并不合理,这使得模型在实际应用时有局限。
引入一组购物车:$\vc{e}_1$ 表示含一个通心粉的购物车,$\vc{e}_2$ 表示含一瓶酱的购物车,$\vc{e}_3$ 表示含一块巧克力的购物车。则每个购物车 $\vc{x}$ 可用三个坐标 $(x_1, x_2, x_3)$ 表示:$\vc{x} = x_1 \vc{e}_1 + x_2 \vc{e}_2 + x_3 \vc{e}_3$。
存在一个从购物车 $\vc{x}$ 到价格 $y \in \R$ 的。可以引入矩阵 $\vc{A} = \begin{pmatrix}a_{11} & a_{12} & a_{13} \end{pmatrix}$,其中 $a_{11}$ 是通心粉的价格,$a_{12}$ 是酱的价格,$a_{13}$ 是巧克力的价格。总价 $y$ 可表示为 $y = \mx{A} \vc{x}$。
现实中这种映射常常是的,比如“买三送一”等促销。但将建模为映射通常是合理且有用的。
数学建模与现实总有差异,分析结果需理性和批判性地使用。即使一个通心粉售价为 10,也不代表你能以 10 的价格卖给商店。
定理 9.1:
线性映射的矩阵形式
$\vc{y} = F(\vc{x})$ 能写成 $\vc{y} = \mx{A}\vc{x}$(矩阵形式)当且仅当它是的。
要证明该定理,需要证明两个方向:每个都能写成 $\vc{y} = \mx{A}\vc{x}$,以及每个 $\vc{y} = \mx{A}\vc{x}$ 的都是的。这里以 $\vc{x}$ 和 $\vc{y}$ 都为二维为例,其他维度也类似。
假设 $N$ 和 $M$ 都有一组 $\vc{e}_1$、$\vc{e}_2$。则输入 $\vc{x}$ 和输出 $\vc{y}$ 可在该基底下表示为:
|
\begin{align}
\vc{x} & = x_1 \vc{e}_1 + x_2 \vc{e}_2,\\
\vc{y} & = y_1 \vc{e}_1 + y_2 \vc{e}_2.\\
\end{align}
|
(9.12)
|
将 $\vc{x}$ 的表达式代入 $\vc{y} = F(x)$,得
|
\begin{equation}
\vc{y} = F(\vc{x}) = F(x_1 \vc{e}_1 + x_2 \vc{e}_2),
\end{equation}
|
(9.13)
|
由于 $F$ 是的,可以应用线性映射的两个条件:
|
\begin{equation}
\vc{y} = F(x_1 \vc{e}_1) + F(x_2 \vc{e}_2) = x_1F(\vc{e}_1) + x_2F(\vc{e}_2).
\end{equation}
|
(9.14)
|
$F$ 会把一个向量映射为另一个向量,$F(\vc{e}_1)$ 也一定可以在下表示。假设它在基底 $\vc{e}_1$、$\vc{e}_2$ 下的坐标为 $\begin{pmatrix}a_{11} \\ a_{21} \end{pmatrix}$:
|
\begin{equation}
F(\vc{e}_1) = a_{11}\vc{e}_1 + a_{21}\vc{e}_2.
\end{equation}
|
(9.15)
|
同理,假设
|
\begin{equation}
F(\vc{e}_2) = a_{12}\vc{e}_1 + a_{22}\vc{e}_2.
\end{equation}
|
(9.16)
|
现在可以继续展开 $F(\vc{x})$:
|
\begin{equation}
\vc{y} = x_1(a_{11}\vc{e}_1 + a_{21}\vc{e}_2) + x_2(a_{12}\vc{e}_1 + a_{22}\vc{e}_2) = \\
(x_1 a_{11} + x_2 a_{12})\vc{e}_1 + (x_1 a_{21} + x_2 a_{22})\vc{e}_2 \\
\end{equation}
|
(9.17)
|
与
公式 (9.12)第二行对比,可知 $y_1 = a_{11}x_1 + a_{12}x_2$,$y_2 = a_{21}x_1 + a_{22}x_2$。于是有:
在基底 $\vc{e}_1,\ \vc{e}_2,\ \ldots,\ \vc{e}_n$ 下,矩阵 $\mx{A}$ 的列向量就是基底向量的像:$\vc{a}_{,1}=F(\vc{e}_1),\ \vc{a}_{,2}=F(\vc{e}_2),\ \ldots,\ \vc{a}_{,n}=F(\vc{e}_n)$。
\begin{equation}
\begin{pmatrix} y_1 \\ y_2 \end{pmatrix}
= \left(\begin{array}{rr}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{array}\right)
\begin{pmatrix} x_1 \\ x_2 \end{pmatrix}
\end{equation}
|
(9.18)
|
即:
|
\begin{equation}
\vc{y} = \mx{A}\vc{x}.
\end{equation}
|
(9.19)
|
现在需要证明逆命题:如果 $\vc{y} = \mx{A}\vc{x}$,
那么该是的。假设有一个输入 $\vc{x}'$,坐标为 $\vc{x}' = x_1' \vc{e}_1 + x_2' \vc{e}_2$,或向量形式 $\vc{x}' = \begin{pmatrix}x'_1\\x'_2\end{pmatrix}$,另一个输入 $\vc{x}''$,向量形式 $\vc{x}'' = \begin{pmatrix}x''_1\\x''_2\end{pmatrix}$。第一个条件直接由
第 6 章定理 6.1矩阵运算性质 (vii) 得到:
|
\begin{equation}
F(\vc{x}' + \vc{x}'') = \mx{A}(\vc{x}' + \vc{x}'') = \mx{A}\vc{x}' + \mx{A}\vc{x}'' = F(\vc{x}') + F(\vc{x}'').
\end{equation}
|
(9.20)
|
第二个条件也可由矩阵代数直接推出:
|
\begin{equation}
F(\lambda \vc{x'}) = \mx{A}(\lambda \vc{x}') = \lambda \mx{A} \vc{x}' = \lambda F(\vc{x'})
\end{equation}
|
(9.21)
|
因为标量 $\lambda$ 可以放在矩阵任意一侧($\mx{A}\lambda = \lambda \mx{A}$)。至此证明完成。
$\square$
实际应用中,常常需要为某个找到对应的矩阵 $\mx{A}$。下面的定理会非常有帮助。
定理 9.1:
线性映射的矩阵形式
映射 $\vc{y} = F(\vc{x})$ 能写成 $\vc{y} = \mx{A}\vc{x}$(矩阵形式)当且仅当它是的。
在基底 $\vc{e}_1, \vc{e}_2, \ldots, \vc{e}_n$ 下,矩阵 $\mx{A}$ 的列向量就是基底向量的像:$\vc{a}_{,1}=F(\vc{e}_1),\ \vc{a}_{,2}=F(\vc{e}_2),\ \ldots,\ \vc{a}_{,n}=F(\vc{e}_n)$。
这里以 $N = M = 3$ 为例,其他维度的证明类似。
第一个向量 $\vc{e}_1$ 可写为 $\vc{e}_1 = 1 \vc{e}_1 + 0\vc{e}_2 + 0 \vc{e}_3$,坐标为 $(1, 0, 0)$。在公式 $\vc{y} = \mx{A}\vc{x}$ 中取 $\vc{x} = \begin{pmatrix} 1 \\ 0 \\ 0\end{pmatrix}$ 得:
|
\begin{equation}
\begin{pmatrix} y_1 \\ y_2 \\ y_3\end{pmatrix}
= \left(\begin{array}{rrr}
a_{11} & a_{12} & a_{13}\\
a_{21} & a_{22} & a_{23}\\
a_{31} & a_{32} & a_{33}\\
\end{array}\right)
\begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix}
= \left(\begin{array}{r}
1 a_{11} + 0 a_{12} + 0 a_{13}\\
1 a_{21} + 0 a_{22} + 0 a_{23}\\
1 a_{31} + 0 a_{32} + 0 a_{33}\\
\end{array}\right)
= \begin{pmatrix} a_{11} \\ a_{21} \\ a_{31} \end{pmatrix},
\end{equation}
|
(9.22)
|
这就是 $\mx{A}$ 的第一列。因此,向量 $\vc{e}_1$ 的像 $F(\vc{e}_1)$ 就是 $\mx{A}$ 的第一列,记作 $\vc{a}_{,1}$。同理,第二个向量 $\vc{e}_2$ 可写为 $\vc{e}_2 = 0 \vc{e}_1 + 1 \vc{e}_2 + 0 \vc{e}_3$,坐标为 $(0, 1, 0)$,其像为:
|
\begin{equation}
\left(\begin{array}{rrr}
a_{11} & a_{12} & a_{13}\\
a_{21} & a_{22} & a_{23}\\
a_{31} & a_{32} & a_{33}\\
\end{array}\right)
\begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix}
= \left(\begin{array}{r}
0 a_{11} + 1 a_{12} + 0 a_{13}\\
0 a_{21} + 1 a_{22} + 0 a_{23}\\
0 a_{31} + 1 a_{32} + 0 a_{33}\\
\end{array}\right)
= \begin{pmatrix} a_{12} \\ a_{22} \\ a_{32} \end{pmatrix},
\end{equation}
|
(9.23)
|
这就是矩阵 $\mx{A}$ 的第二列 $\vc{a}_{,2}$。同理,第三个向量也可以得到:
|
\begin{equation}
\left(\begin{array}{rrr}
a_{11} & a_{12} & a_{13}\\
a_{21} & a_{22} & a_{23}\\
a_{31} & a_{32} & a_{33}\\
\end{array}\right)
\begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix}
= \left(\begin{array}{r}
0 a_{11} + 0 a_{12} + 1 a_{13}\\
0 a_{21} + 0 a_{22} + 1 a_{23}\\
0 a_{31} + 0 a_{32} + 1 a_{33}\\
\end{array}\right)
= \begin{pmatrix} a_{13} \\ a_{23} \\ a_{33} \end{pmatrix},
\end{equation}
|
(9.24)
|
这就是 $\mx{A}$ 的第三列。该结论可推广到任意维度的 $M$ 和 $N$。
$\square$
现在我们可以利用这个结论,通过观察向量的像,轻松找到对应的矩阵 $\mx{A}$。
例 9.3:
求线性映射的矩阵
$\vc{y} = F(\vc{x})$ 将二维向量 $\vc{x}$ 逆时针旋转 90 度。当使用标准 $\vc{e}_1=(1,0)$、$\vc{e}_2=(0,1)$ 时,求矩阵形式 $\vc{y} = \mx{A} \vc{x}$ 中的变换矩阵 $\mx{A}$。
矩阵 $\mx{A}$ 的第一是第一个向量 $\vc{e}_1$($x$ 轴)的像。将 $x$ 轴逆时针旋转 90 度会平行于 $y$ 轴,坐标为 $(0, 1)$。因此第一列 $\vc{a}_{,1}= \begin{pmatrix} 0 \\ 1 \end{pmatrix}$。
矩阵 $\mx{A}$ 的第二是第二个向量($y$ 轴)的像。将 $y$ 轴逆时针旋转 90 度后得到 $(-1, 0)$。因此第二列 $\vc{a}_{,2} = \begin{pmatrix} -1 \\ 0 \end{pmatrix}$,所以可以写出
$\mx{A}$ as
|
\begin{equation}
\mx{A} = \left(\begin{array}{rr}
0 & -1 \\
1 & 0 \\
\end{array}\right) .
\end{equation}
|
(9.25)
|
这如
交互式演示 9.7 所示。
假设我们有一个 $\vc{y} = F(\vc{x})$,其输出向量 $\vc{y}$ 可以作为另一个 $\vc{z}= G(\vc{y})$ 的输入。为此,我们需要 $G$ 的等于 $F$ 的。例如,如果 $G(\vc{y})$ 接受二维向量,即 $G$ 的是 $\mathbb{R}^2$,那么 $F$ 的输出也必须是二维向量,即 $F(\vc{x})$ 的也是 $\mathbb{R}^2$。我们称这样的
|
\begin{equation}
\vc{z} = G(F(\vc{x}))
\end{equation}
|
(9.26)
|
复合 。
定理 9.3:
线性映射的复合
如果 $\vc{y} = F(\vc{x})$ 和 $\vc{z} = G(\vc{y})$ 都是,
则复合 $\vc{z} = G(F(\vc{x}))$ 也是的。
由于 $\vc{y} = F(\vc{x})$ 是,可以写成矩阵形式 $\vc{y} = \mx{A}\vc{x}$,同样 $\vc{z} = G(\vc{y})$ 也可以写成 $\vc{z} = \mx{B}\vc{y}$。
我们可以写成
|
\begin{equation}
\vc{z} = \mx{B}\vc{y} = \mx{B}(\mx{A}\vc{x}) = (\mx{B}\mx{A})\vc{x} = \mx{C}\vc{x},
\end{equation}
|
(9.27)
|
其中 $\mx{C}$ 是新的矩阵,等于 $\mx{B}\mx{A}$。这只是形式为 $\vc{z}=\mx{C}\vc{x}$ 的矩阵方程,
根据
定理 9.1 意味着从 $\vc{x}$ 到 $\vc{z}$ 的
也必须是。
$\square$
例 9.4:
线性映射的复合
求一个 $F$,它先将二维向量旋转 30 度,然后将 $x$ 坐标乘以二。
我们将其分为两部分。首先求一个 $\vc{y} =G(\vc{x})$ 旋转 30 度,然后求另一个
$\vc{z} = H(\vc{y})$ 将 $x$ 坐标乘以二。
设 $\mx{A}$ 为 $G$ 的变换矩阵。由
定义 6.10 可知,旋转角度 $\phi$ 由
$ \left(\begin{array}{rr} \cos \phi & -\sin \phi \\ \sin \phi & \cos \phi \end{array}\right)$ 得到。
因此,设 $\phi = \frac{\pi}{6}$,得
|
\begin{equation}
\mx{A} =
\left(\begin{array}{rr}
\frac{\sqrt{3}}{2} & -\frac{1}{2} \\
\frac{1}{2} & \frac{\sqrt{3}}{2}
\end{array}\right).
\end{equation}
|
(9.28)
|
令 $\mx{B}$ 为映射 $H$ 的变换矩阵。其任务是将 $x$ 坐标乘以二,同时保持 $y$ 坐标不变。对此我们可以设置如下矩阵:
|
\begin{equation}
\mx{B} = \left(\begin{array}{rr}
2 & 0 \\
0 & 1
\end{array}\right).
\end{equation}
|
(9.29)
|
最后,复合映射 $\vc{z} = H(G(\vc{x}))$ 的变换矩阵 $\mx{C}$ 为:
|
\begin{equation}
\mx{C} = \mx{B}\mx{A} =\left(\begin{array}{rr}
2 & 0 \\
0 & 1
\end{array}\right)
\left(\begin{array}{rr}
\frac{\sqrt{3}}{2} & -\frac{1}{2} \\
\frac{1}{2} & \frac{\sqrt{3}}{2}
\end{array}\right) =
\left(\begin{array}{rr}
\sqrt{3} & -1 \\
\frac{1}{2} & \frac{\sqrt{3}}{2}
\end{array}\right).
\end{equation}
|
(9.30)
|
对于某些,多个输入 $\vc{x}$ 可能映射到相同的值 $F(\vc{x})$。例如在
交互式图示 9.5中,我们只是将点投影到 $x$ 轴上(通过将 $y$ 坐标设为零),那么 $\vc{x}_1 = (1,5)$ 和 $\vc{x}_2 = (1,2)$ 都会映射到同一点 $(1,0) = F(\vc{x}_1) =F(\vc{x}_2)$。但对于某些,结果是唯一的,即如果 $\vc{x}_1 \neq \vc{x}_2$,则 $F(\vc{x}_1) \neq F(\vc{x}_2)$。我们称这样的为
。
定义 9.4:
单射映射
$y = F(x)$ 是,如果任意两个不同的向量 $\vc{x}_1 \neq \vc{x}_2$ 总是给出两个不同的像 $F(\vc{x}_1) \neq F(\vc{x}_2)$。
另一种等价的表述是:一个映射具有这样的性质:如果两个像 $F(\vc{x}_1)$ 和 $F(\vc{x}_2)$ 相等,则 $\vc{x}_1$ 必须等于 $\vc{x}_2$。
对于某些 $\vc{y} = F(\vc{x})$,我们可以通过选择合适的 $\vc{x}$ 到达中的每一点 $\vc{y}$。当的覆盖时,我们称这样的为
。既是又是的称为
。
定义 9.5:
满射映射
$\vc{y} =F(\vc{x})$,其中 $\vc{x} \in N$ 和 $\vc{y} \in M$ 是,如果 $V_F$ 等于 $M$,
即 $V_F = M$。
定义 9.6:
双射映射
一个是,当且仅当它既是又是。
我们现在将通过几个的例子,来研究它们是否是、以及。
例 9.5:
映射类型 I
考虑 $\vc{y} = F(\vc{x})$
|
\begin{equation}
\begin{pmatrix}
y_1 \\
y_2
\end{pmatrix}
= F\left(\begin{pmatrix}
x_1 \\
x_2
\end{pmatrix}\right)
= \left(\begin{array}{r}
e^{x_1} \\
e^{x_2}
\end{array}\right) ,
\end{equation}
|
(9.31)
|
其中 $\vc{x}$ 属于定义域 $N = \mathbb{R}^2$,
结果向量 $\vc{y}$ 属于 $M =\mathbb{R}^2$。这个是,因为如果我们有两个不同的输入值 $\vc{a}$ 和 $\vc{b}$,输出向量 $\begin{pmatrix}e^{a_1}\\e^{a_2}\end{pmatrix}$ 将不同于 $\begin{pmatrix}e^{b_1}\\e^{b_2}\end{pmatrix}$,除非 $\vc{a} =\vc{b}$。然而,该不是,因为不可能得到 $y_1$ 和 $y_2$ 的负值(对于所有实数 $x$ 都有 $e^x > 0$)。 $V_F$ 在这种情况下仅为象限 $y_1 > 0, y_2 > 0$,不等于 $M =\mathbb{R}^2$。由于该不是,所以它也不是。
例 9.6:
映射类型 II
研究 $\vc{y} = F(\vc{x})$
|
\begin{equation}
\begin{pmatrix}
y_1 \\
y_2
\end{pmatrix}
= F\left(\begin{pmatrix}
x_1 \\
x_2
\end{pmatrix}\right)
= \left(\begin{array}{r}
2 x_1 \\
3 x_2
\end{array}\right)
\end{equation}
|
(9.32)
|
是。在这种情况下, $N$ 和 $M$ 都等于实数 $\mathbb{R}^2$。
首先我们研究它是否是。很明显它是,因为两个不同的输入值 $\vc{a}$ 和 $\vc{b}$ 会产生两个不同的输出向量 $\begin{pmatrix}2 a_1\\3a_2\end{pmatrix} \neq \begin{pmatrix}2b_1\\3b_2\end{pmatrix}$,除非 $\vc{a} = \vc{b}$。
同时所有输出向量 $\begin{pmatrix}y_1\\y_2\end{pmatrix}$(整个 $M = \mathbb{R}^2$)都可以通过使用
输入 $\begin{pmatrix}x_1\\ x_2\end{pmatrix}= \begin{pmatrix}\frac{y_1}{2}\\\frac{y_2}{3}\end{pmatrix}$ 到达。这
意味着也是。由于
既是又是,所以它是。
事实证明,中是的具有许多有用的性质。例如,找到逆很简单,如我们将在以下定理中看到的。
定理 9.4:
逆映射的等价性
对于从 $\vc{x} \in \mathbb{R}^n$ 到 $\vc{y} \in \mathbb{R}^n$ 的 $\vc{y} = F(\vc{x})$,以下三个陈述是等价的:
- $F$ 是。
- $F$ 的变换矩阵是可逆的。
- 向量 $\vc{e}_1, \, \ldots, \, \vc{e}_n$ 的映像 $F(\vc{e}_1), \ldots, F(\vc{e}_n)$ 在 $\mathbb{R}^n$ 中构成一个。
i $\rightarrow$ ii: 如果 $F$ 是,这意味着方程 $F(\vc{x}) = \vc{y}$ 对于每个 $\vc{y}$ 都有唯一解 $\vc{x}$。特别是,由于 $F$ 是,我们知道如果 $F(\vc{u})=F(\vc{v})$,则 $\vc{u}$ 必须等于 $\vc{v}$。另外,由于 $F$ 是,每个 $\vc{y}$ 都可以通过适当的 $\vc{x}$ 到达。$F$ 的矩阵形式为 $\vc{y} = \mx{A}\vc{x}$,该方程对每个 $\vc{y}$ 都有唯一解等价于说 $\mx{A}$ 根据
定理 6.9是可逆的。
ii $\rightarrow$ iii: 根据
定理 9.2,$F(\vc{e}_1)$ 恰好是 $\mx{A}$ 的第一列。同样,$F(\vc{e}_2)$ 是第二列,依此类推。
定理 6.9 告诉我们,如果 $\mx{A}$ 是可逆的,则 $\mx{A}$ 的列跨越 $\mathbb{R}^n$,这意味着它们在 $\mathbb{R}^n$ 中形成一个。
iii $\rightarrow$ i: 我们首先证明 iii 意味着 $F$ 是,即如果 $F(\vc{u}) = F(\vc{v})$ 则 $\vc{u}$ 必须等于 $\vc{v}$。
我们可以写 $\vc{u} = u_1 \vc{e}_1 + u_2 \vc{e}_2 + \ldots + u_n\vc{e}_n$ 和 $\vc{v} = v_1 \vc{e}_1 + v_2 \vc{e}_2 + \ldots + v_n\vc{e}_n$。我们知道 $F(\vc{u}) = F(\vc{v})$,因此 $F(\vc{u})-F(\vc{v}) = \vc{0}$,这等价于
|
\begin{equation}
F(u_1 \vc{e}_1 + u_2 \vc{e}_2 + \ldots + u_n\vc{e}_n) - F(v_1 \vc{e}_1 + v_2 \vc{e}_2 + \ldots + v_n\vc{e}_n) = \vc{0}.
\end{equation}
|
(9.33)
|
由于 $F$ 是 的,上式可写为
|
\begin{equation}
u_1 F(\vc{e}_1) + u_2 F(\vc{e}_2) + \ldots + u_nF(\vc{e}_n) - \Big( v_1 F(\vc{e}_1) + v_2 F(\vc{e}_2) + \ldots + v_nF(\vc{e}_n)\Big) = \vc{0}.
\end{equation}
|
(9.34)
|
合并项我们得到
|
\begin{equation}
(u_1-v_1) F(\vc{e}_1) + (u_2 - v_2) F(\vc{e}_2) + \ldots + (u_n - v_n) F(\vc{e}_n) = \vc{0},
\end{equation}
|
(9.35)
|
但由于 $F(\vc{e}_1), F(\vc{e}_2), \ldots, F(\vc{e}_n)$ 线性无关,根据
定理 5.2,这只有解 $(u_1-v_1) = 0, \,(u_2-v_2)=0, \, \ldots, \, (u_n-v_n)=0$。因此 $\vc{u} = \vc{v}$ 且 $F$ 是。
然后我们证明 $\vc{y} = F(\vc{x})$ 是,即我们可以通过适当选择 $\vc{x}$ 来达到每个 $\vc{y}$。
我们可以写 $\vc{x} = x_1\vc{e}_1 + x_2\vc{e}_2 + \ldots + x_n\vc{e}_n$,因此 $\vc{y} = F(\vc{x})$ 可以写为
|
\begin{equation}
\vc{y} = F(\vc{x}) = F(x_1\vc{e}_1 + x_2\vc{e}_2 + \ldots + x_n\vc{e}_n)。
\end{equation}
|
(9.36)
|
由于 $F$ 是的,这等于
|
\begin{equation}
\vc{y} = x_1F(\vc{e}_1) + x_2F(\vc{e}_2) + \ldots x_n F(\vc{e}_n),
\end{equation}
|
(9.37)
|
由于 $F(\vc{e}_1), F(\vc{e}_2), \ldots, F(\vc{e}_n)$ 构成 $\mathbb{R}^n$ 中的一个,这些向量跨越 $\mathbb{R}^n$,因此我们可以达到 $\mathbb{R}^n$ 中的任何 $\vc{y}$。因此 $F$ 是。由于 $F$ 既是又是,所以它是,这完成了证明。
$\square$
从这个证明中,以下定理是随之而来的。
定理 9.5:
逆映射矩阵
对于具有变换矩阵 $\mx{A}$ 的 $\vc{y} = F(\vc{x})$,逆 $\vc{x} =F^{-1}(\vc{y})$ 是的,其变换矩阵为 $\inv{\mx{A}}$。
我们要寻找一个 $\inv{F}$,使得 $\inv{F}(F(\vc{x})) = \vc{x}$。
考虑矩阵形式的 $\vc{y} = F(\vc{x})$
|
\begin{equation}
\vc{y} = \mx{A}\vc{x}。
\end{equation}
|
(9.38)
|
两边同时乘以 $\inv{\mx{A}}$ 得到
|
\begin{equation}
\inv{\mx{A}}\vc{y} = \inv{\mx{A}}\mx{A}\vc{x} = \mx{I} \vc{x} = \vc{x},
\end{equation}
|
(9.39)
|
或
|
\begin{equation}
\vc{x} = \inv{\mx{A}} \vc{y}。
\end{equation}
|
(9.40)
|
这正是我们上面要寻找的 - 如果我们输入 $\vc{y} = \mx{A}\vc{x}$,我们得到 $\vc{x}$ 作为输出。因此 $\inv{\mx{A}}$ 必定是 $\inv{F}$ 的变换矩阵,由于 $\inv{F}$ 可以这样写成矩阵形式,它必定是的。
$\square$
在
交互式演示 9.8 中,我们展示了如何使用来生成阴影效果。
例 9.7:
阴影
假设我们有一个通过原点的,其量为 $\vc{n} = (0, 1, 0)$。此外,假设太阳距离原点无限远,位于方向 $\vc{r} = (0.5,1.0, 0.25)$ 上。我们在上方有很多点,想知道它们在上的阴影。还假设我们已被告知这种特殊类型的阴影可以表示为。
逐点计算阴影点是可能的,但如果我们能创建一个 $\vc{y} =\mx{A}\vc{x}$,以便我们可以直接通过简单地将点 $\vc{x}$ 与矩阵 $\mx{A}$ 相乘来获取投影点 $\vc{y}$,这会更方便。鉴于问题是的,这应该是可能的。
在这种情况下,我们利用
定理 9.2,即为了获得 $\mx{A}$,我们只需要知道三个单位向量发生了什么。变换矩阵 $\mx{A}$ 的第一就是第一个 $\vc{e_1} = (1,0,0)$ 的映像,以此类推。因此,如果我们找出点 $(1,0,0)$ 的阴影在上落在哪里,我们就有了 $\mx{A}$ 的第一列。
我们可以将写成 $ax+by+cz+d = 0$ 的形式,由于我们知道是 $(0, 1, 0)$,这简化为 $y+d=0$。此外,由于原点 $(0, 0, 0)$ 在上,方程进一步简化为 $y=0$。我们现在可以取通过点 $(p_x, p_y, p_z)$ 的并沿太阳方向 $(r_x, r_y, r_z)$ 跟随它,
|
\begin{equation}
\begin{pmatrix}
x \\
y \\
z
\end{pmatrix}=
\begin{pmatrix}
p_x \\
p_y \\
p_z
\end{pmatrix}+
\lambda \begin{pmatrix}
r_x \\
r_y \\
r_z
\end{pmatrix} =
\begin{pmatrix}
p_x \\
p_y \\
p_z
\end{pmatrix}+
\lambda \begin{pmatrix}
0.5 \\
1.0 \\
0.25
\end{pmatrix}.
\end{equation}
|
(9.41)
|
将此方程代入方程应该给我们距离 $\lambda$,我们需要从 $P$ 的旅程以达到交点。当我们将其插入方程 $y = 0$ 时,我们得到 $p_y + 1.0 \lambda = 0$。对于第一个 $\vc{e}_1=(1, 0, 0)$,我们有 $p_y = 0$,得到 $0 + \lambda = 0$,这意味着 $\lambda = 0$。交点因此在 $(1, 0, 0) + 0\vc{r} = (1, 0, 0)$。这因此是 $\mx{A}$ 的第一列。对于第二个 $\vc{e}_2 = (0, 1, 0)$,我们有 $p_y = 1$,给出方程 $1+\lambda = 0$,或 $\lambda = -1$。因此 $\mx{A}$ 的第二列是 $(0, 1, 0) + (-1)(0.5, 1.0, 0.25) = (-0.5, 0, -0.25)$。第三个 $\vc{e}_3 = (0, 0, 1)$ 得到 $\lambda = 0$,因此 $\mx{A}$ 的最后一列是 $(0, 0, 1) - 0\vc{r} = (0, 0, 1)$。
总结一下,我们现在创建了一个 $\vc{y} = \mx{A}\vc{x}$,它取一个点 $\vc{x}$ 并将其映射到其阴影 $\vc{y}$。矩阵 $\mx{A}$ 等于
|
\begin{equation}
\mx{A} = \left(\begin{array}{ccc}
1 & -0.5 & 0\\
0 & 0 & 0\\
0 & -0.25 & 1\\
\end{array}\right).
\end{equation}
|
(9.42)
|
这用于下图中。立方体的每个点只是使用上面的矩阵 $\mx{A}$ 的 $\vc{y} = \mx{A}\vc{x}$ 投影到上。通过使用投影坐标而不是原始坐标绘制立方体的每个面,可以绘制立方体的阴影。
现在我们有了这个阴影示例,我们可以研究是否是。
例 9.8:
阴影的双射性
检查
例 9.7 中的是否是。
根据
定理 9.4,当且仅当变换矩阵 $\mx{A}$ 可逆时, $\vc{y} = \mx{A}\vc{x}$ 是。我们从关于行列式的
定理 7.10 知道矩阵仅当行列式非零时才是可逆的。然而,行列式
|
\begin{equation}
\det(\mx{A}) = \left|\begin{array}{ccc}
1 & -0.5 & 0\\
0 & 0 & 0\\
0 & -0.25 & 1\\
\end{array}\right|
\end{equation}
|
(9.43)
|
必定为零,因为第二行为零(参见
定理 7.1$(iv)$ 结合 $(vii)$)。因此该不能是。
这是有道理的。如果你知道一组点和太阳的方向,你可以计算他们各自的阴影。然而,如果你只有阴影和太阳的方向,你无法恢复原始位置,因为你只知道该点位于的方向,而不知道它的距离。因此该操作不可逆,或用正式术语,。
例 9.9:
重新审视图像压缩
在
例 9.1 中,我们看到 $\vc{y} = \mx{A}\vc{x}$ 被用作压缩过程的一部分。这个可能是吗?
答案是肯定的。为了有用,我们希望解码后的图像与原始图像看起来相同,至少在我们花费足够的比特时是这样。如果我们有一个不是的,信息将在变换步骤 $\vc{y} = \mx{A}\vc{x}$ 中丢失。无论我们如何保存 $\vc{y}$,即无论我们花多少比特来描述 $\vc{y}$,都不可能恢复 $\vc{x}$。如果另一方面是,使用 $\vc{x} = \inv{\mx{A}}\vc{y}$ 恢复 $\vc{x}$ 很简单。
弹出帮助:
映射 $F$ 是一条规则,写成 $F: N \rightarrow M$,
其中对于集合 $N$ 中的每一项,函数 $F$
在另一个集合 $M$ 中提供一项。这里 $M$ 是陪域。
弹出帮助:
$n$ 维列向量 $\vc{v}$ 相对于一个表示,由 $n$ 个标量值的一列组成。
向量元素有时记为 $v_1$、$v_2$、...、$v_n$。对于二维和三维向量,有时
我们也使用 $v_x$、$v_y$ 和 $v_z$。
记号为
|
\begin{equation}
\underbrace{
\vc{u} =
\begin{pmatrix}
u_x
\end{pmatrix}
=
\begin{pmatrix}
u_1
\end{pmatrix}}_{\text{一维向量}},
\spc\spc
\underbrace{
\vc{v} =
\begin{pmatrix}
v_x \\
v_y
\end{pmatrix}
=
\begin{pmatrix}
v_1 \\
v_2
\end{pmatrix}}_{\text{二维向量}},
\spc\spc
\underbrace{
\vc{w} =
\begin{pmatrix}
w_x \\
w_y \\
w_z
\end{pmatrix}
=
\begin{pmatrix}
w_1 \\
w_2 \\
w_3
\end{pmatrix}}_{\text{三维向量}},
\end{equation}
|
|
其中 $\vc{u} = u_x \vc{e}_1$、$\vc{v} = v_x \vc{e}_1 + v_y \vc{e}_2$,
以及 $\vc{w} = w_x \vc{e}_1 + w_y \vc{e}_2 + w_z \vc{e}_3$。
注意 $\vc{e}_i$ 是向量。
在我们的文本中,我们也使用简化符号 $\vc{w} = \bigl(w_1,w_2,w_3\bigr)$,含义与上面相同
(注意向量元素之间有逗号)。
但行向量元素之间没有逗号。
弹出帮助:
映射 $F$ 是一条规则,写成 $F: N \rightarrow M$,
其中对于集合 $N$ 中的每一项,函数 $F$
在另一个集合 $M$ 中提供一项。这里 $N$ 是定义域。