含山县住房和城乡建设局网站百度经验登录入口
2026/4/15 19:50:07 网站建设 项目流程
含山县住房和城乡建设局网站,百度经验登录入口,只做正品的购物网站,女人做春梦网站矩阵乘向量的本质#xff1a;基底变换与线性组合 在二维平面上#xff0c;一个点的坐标是 $ (3, 5) $。这看起来再普通不过——但你有没有想过#xff0c;这个“3”和“5”到底意味着什么#xff1f;它们之所以成立#xff0c;是因为我们默认使用了一组特定的方向作为参照…矩阵乘向量的本质基底变换与线性组合在二维平面上一个点的坐标是 $ (3, 5) $。这看起来再普通不过——但你有没有想过这个“3”和“5”到底意味着什么它们之所以成立是因为我们默认使用了一组特定的方向作为参照向右的 $ \mathbf{e}_1 [1, 0]^T $ 和向上的 $ \mathbf{e}_2 [0, 1]^T $。于是 $ (3,5) $ 实际上是 $ 3\mathbf{e}_1 5\mathbf{e}_2 $。但如果我把这两个方向换成别的呢比如把“右”变成东北方向把“上”变成西南方向同样的系数 $ (3,5) $ 所指向的空间位置就会完全不同。这正是矩阵乘以向量的核心所在它不是在改变数字本身而是在重新定义这些数字所依赖的基础结构——即基底。当你写下 $ A\mathbf{x} $ 的那一刻你其实是在说“请用我提供的新方向矩阵的列按照原向量的权重$ \mathbf{x} $ 的分量来构造一个新的点。”从行到列两种视角一种本质我们通常学习矩阵乘法是从“行”的角度开始的。给定$$A \begin{bmatrix}a_{11} a_{12} \a_{21} a_{22}\end{bmatrix}, \quad\mathbf{x} \begin{bmatrix}x_1 \ x_2\end{bmatrix}$$结果 $ A\mathbf{x} $ 的第一个分量是第一行与 $ \mathbf{x} $ 的点积$ a_{11}x_1 a_{12}x_2 $第二个分量同理。这种计算方式清晰、可编程、易于实现。但它的几何意义却不够直观。点积告诉我们的是投影关系而不是空间中的实际移动路径。真正揭示本质的是从列的角度来看待这个运算。将矩阵 $ A $ 拆分为两列$$\mathbf{a}1 \begin{bmatrix}a{11} \ a_{21}\end{bmatrix}, \quad\mathbf{a}2 \begin{bmatrix}a{12} \ a_{22}\end{bmatrix}$$那么就有$$A\mathbf{x} x_1 \mathbf{a}_1 x_2 \mathbf{a}_2$$看这不是什么神秘操作而是最典型的线性组合。输入向量 $ \mathbf{x} $ 提供了权重矩阵 $ A $ 提供了被加权的基本构件。举个例子$$A \begin{bmatrix}2 -1 \1 3\end{bmatrix}, \quad\mathbf{x} \begin{bmatrix}3 \ 5\end{bmatrix}\quad \Rightarrow \quadA\mathbf{x} 3 \cdot\begin{bmatrix}2 \ 1\end{bmatrix} 5 \cdot\begin{bmatrix}-1 \ 3\end{bmatrix}\begin{bmatrix}1 \ 18\end{bmatrix}$$输出向量 $ [1, 18]^T $ 就位于由 $ \mathbf{a}_1 $ 和 $ \mathbf{a}_2 $ 张成的平面内——事实上它是这对向量的一个具体实例化表达。换句话说矩阵 $ A $ 定义了一个“生成模板”而 $ \mathbf{x} $ 决定了在这个模板中选择哪一个具体的输出。基底变了世界就变了现在让我们更进一步考虑标准基下的向量 $ \mathbf{x} [x_1, x_2]^T $。它本质上就是$$\mathbf{x} x_1\begin{bmatrix}1 \ 0\end{bmatrix} x_2\begin{bmatrix}0 \ 1\end{bmatrix} x_1 \mathbf{e}_1 x_2 \mathbf{e}_2$$如果我们保留相同的系数 $ x_1, x_2 $但把基换成了 $ \mathbf{a}_1, \mathbf{a}_2 $那会发生什么答案就是$$\mathbf{y} x_1 \mathbf{a}_1 x_2 \mathbf{a}_2 A\mathbf{x}$$所以矩阵乘法 $ A\mathbf{x} $ 可以理解为保持坐标数值不变但将其解释为一组新基下的线性组合。这就像你在地图上看经纬度 $ (40^\circ N, 116^\circ E) $如果地球的坐标系突然旋转了虽然数字没变但对应的实际地点已经完全不同。矩阵的作用就是悄悄地替换了整个坐标系统的“朝向”。因此矩阵 $ A $ 的每一列实际上记录了原始基向量变换后的位置- 第一列是 $ \mathbf{e}_1 $ 被送到哪里- 第二列是 $ \mathbf{e}_2 $ 被送到哪里。整个变换规则由此完全确定。具体案例缩放与旋转来看看几个经典例子。缩放变换$$A \begin{bmatrix}2 0 \0 3\end{bmatrix}$$这意味着- $ \mathbf{e}_1 \to (2, 0) $- $ \mathbf{e}_2 \to (0, 3) $整个空间被横向拉长2倍纵向拉伸3倍。所有点都按比例远离原点但方向关系保持不变。旋转变换$$A \begin{bmatrix}0 -1 \1 0\end{bmatrix}$$这时- $ \mathbf{e}_1 \to (0,1) $- $ \mathbf{e}_2 \to (-1,0) $也就是原来的“右”变成了“上”“上”变成了“左”。这是典型的逆时针90度旋转。你会发现无论哪种变换矩阵的列都在明确告诉你“旧世界的每个基本方向现在去了哪里。”推广到三维逻辑一致直觉延续设$$A \begin{bmatrix}1 0 0 \0 2 1 \0 0 1\end{bmatrix}, \quad\mathbf{x} \begin{bmatrix}2 \ 3 \ 4\end{bmatrix}$$则$$A\mathbf{x} 2 \cdot\begin{bmatrix}1 \ 0 \ 0\end{bmatrix} 3 \cdot\begin{bmatrix}0 \ 2 \ 0\end{bmatrix} 4 \cdot\begin{bmatrix}0 \ 1 \ 1\end{bmatrix}\begin{bmatrix}2 \ 10 \ 4\end{bmatrix}$$这里的三列分别代表标准基 $ \mathbf{e}_1, \mathbf{e}_2, \mathbf{e}_3 $ 经过变换后的新位置。原来的立方体网格可能会扭曲成平行六面体但线性结构依然保持。关键在于无论维度如何变化矩阵乘向量的本质始终如一——它是对新基方向的一次加权合成。一般情形$ m \times n $ 矩阵的映射能力推广到最一般的情况设 $ A \in \mathbb{R}^{m \times n} $$ \mathbf{x} \in \mathbb{R}^n $则$$A\mathbf{x} \sum_{i1}^n x_i \mathbf{a}_i$$其中 $ \mathbf{a}_i \in \mathbb{R}^m $ 是 $ A $ 的第 $ i $ 列。这意味着- 输入向量原本属于 $ n $ 维空间- 输出落在 $ m $ 维空间中- 变换过程是将原来基于 $ n $ 个 $ n $ 维标准基的表示转换为基于 $ n $ 个 $ m $ 维“新方向”的相同系数组合。这就解释了为什么矩阵乘法广泛存在于各种空间映射场景中降维如 PCA当 $ m n $数据被压缩进低维空间嵌入如词向量当 $ m n $信息被扩展到更高维表示全连接层神经网络每一层都在重新定义特征空间的基方向图像仿射变换旋转、剪切、缩放均可通过矩阵乘法实现。可以说任何需要“重新组织信息结构”的任务背后几乎都有矩阵乘法的身影。一个重要澄清列不一定构成基底我们必须指出一点虽然我们将矩阵的列视为“新基”但这并不总能满足数学上“基底”的严格定义。所谓基底必须满足两个条件1. 向量个数等于空间维数2. 向量线性无关。而矩阵 $ A $ 的列可能不满足这些条件。例如情况是否构成基底说明$ m n $列满秩✅ 是构成 $ \mathbb{R}^n $ 的一组新基$ m n $行列式为0❌ 否列相关无法张成全空间$ m n $❌ 否向量不足 $ m $ 个不能构成 $ \mathbb{R}^m $ 的基$ m n $❌ 否即使独立也无法张成 $ \mathbb{R}^m $更准确的说法是矩阵 $ A $ 的列张成一个子空间——称为列空间Column Space而 $ A\mathbf{x} $ 的结果必然落在此空间之内。即使这些列不能构成完整基底它们仍然定义了一组“目标方向”。变换的结果只能是这些方向的线性组合。所以把矩阵乘法看作“基变换的思想实验”虽非严格成立却是极富启发性的思维方式。它帮助我们建立起对线性映射的几何直觉。总结从机械计算到空间感知当我们第一次接触 $ A\mathbf{x} $往往只看到一堆数字的运算。但深入之后会发现这背后是一场静默的空间重构。你可以从两个等价又互补的视角去理解它代数视角它是矩阵各列的线性组合权重来自输入向量几何视角它是将原向量的坐标解释为一组新基下的表达。这两种理解方式相辅相成共同构成了线性代数中最核心的思想之一。未来你会在很多地方再次遇见它- 特征值分解中我们寻找那些变换前后方向不变的特殊向量- SVD 中我们分析矩阵如何拉伸和旋转空间- 在神经网络中权重矩阵实际上是在不断学习最优的“特征基底”- 注意力机制中的 Query-Key-Mapping本质上也是某种基变换的体现。今天建立的直觉或许不会立刻显现威力但它会在你面对复杂模型时悄然浮现——让你一眼看出“哦原来这里又是一次基底的重新定义。”这才是线性代数真正的力量它不只是工具更是看待世界的一种方式。

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询