2026/4/18 10:46:18
网站建设
项目流程
无锡公司做网站,大鹏附近网站建设,阿里云php做网站,2023年百度小说风云榜Hi#xff0c;大家好#xff0c;我是半亩花海。在上节说明了迁移学习领域的基本方法#xff08;基于样本、特征、模型、关系的迁移#xff09;之后#xff0c;本文主要将介绍迁移学习的第一类方法——数据分布自适应#xff0c;重点阐述了边缘分布自适应的原理与应用。该…Hi大家好我是半亩花海。在上节说明了迁移学习领域的基本方法基于样本、特征、模型、关系的迁移之后本文主要将介绍迁移学习的第一类方法——数据分布自适应重点阐述了边缘分布自适应的原理与应用。该方法通过缩小源域和目标域边缘概率分布的距离实现迁移核心思想是利用特征映射使两域数据分布接近。文章详细讲解了迁移成分分析(TCA)方法包括其基于最大均值差异(MMD)的距离度量、核矩阵变换以及优化目标并通过可视化对比展示了TCA在数据分布对齐上的优势。该方法为处理不同分布数据提供了有效解决方案。目录一、基本思路二、核心方法三、方法小结四、参考资料数据分布自适应 (Distribution Adaptation) 是一类最常用的迁移学习方法。这种方法的基本思想是由于源域和目标域的数据概率分布不同那么最直接的方式就是通过一些变换将不同的数据分布的距离拉近。 下图形象地表示了几种数据分布的情况。简单来说数据的边缘分布不同就是数据整体不相似。数据的条件分布不同就是数据整体相似但是具体到每个类里都不太相似。不同数据分布的目标域数据根据数据分布的性质这类方法又可以分为边缘分布自适应、条件分布自适应、以及联合分布自适应。下面我们分别介绍每类方法的基本原理和代表性研究工作。介绍每类研究工作时我们首先给出基本思路然后介绍该类方法的核心最后结合最近的相关工作介绍该类方法的扩展。本文首先具体阐述边缘分布自适应的相关知识内容。一、基本思路边缘分布自适应方法 (Marginal Distribution Adaptation) 的目标是减小源域和目标域的边缘概率分布的距离从而完成迁移学习。从形式上来说边缘分布自适应方法是用 P(xs) 和 P(xt) 之间的距离来近似两个领域之间的差异。即边缘分布自适应对应于上图中由图(a)迁移到图(b)的情形。二、核心方法边缘分布自适应的方法最早由香港科技大学杨强教授团队提出 [Pan et al., 2011]方法名称为迁移成分分析(TCA, Transfer Component Analysis)。由于因此直接减小二者之间的距离是不可行的。TCA 假设存在一个特征映射使得映射后数据的分布。TCA 假设若边缘分布接近则两个领域的条件分布也会接近 即条件分布。这就是 TCA 的全部思想。因此我们现在的目标是找到这个合适的 ϕ。回到迁移学习的本质上来最小化源域和目标域的距离。好了我们能不能先假设这个是已知的然后去求距离看看能推出什么呢更进一步这个距离怎么算机器学习中有很多种形式的距离从欧氏距离到马氏距离从曼哈顿距离到余弦相似度我们需要什么距离呢TCA 利用了一个经典的也算是比较“高端”的距离叫做最大均值差异 (MMDmaximum mean discrepancy)。我们令 n1, n2 分别表示源域和目标域的样本个数那么它们之间的 MMD 距离可以计算为MMD 是做了一件什么事呢简单就是求映射后源域和目标域的均值之差。 事情到这里似乎也没什么进展我们想求的仍然没法求。 TCA 是怎么做的呢这里就要感谢矩阵了我们发现上面这个 MMD 距离平方展开后有二次项乘积的部分那么联系在 SVM 中学过的核函数把一个难求的映射以核函数的形式来求不就可以了于是TCA 引入了一个核矩阵以及一个 MMD 矩阵它的每个元素的计算方式为这样的好处是直接把那个难求的距离变换成了下面的形式其中操作表示求矩阵的迹用人话来说就是一个矩阵对角线元素的和。这样是不是感觉离目标又进了一步呢其实这个问题到这里就已经是可解的了也就是说属于计算机的部分已经做完了。只不过它是一个数学中的半定规划 (SDPsemi-definite programming) 的问题解决起来非常耗费时间。由于 TCA 的第一作者 Sinno Jialin Pan 以前是中山大学的数学硕士他想用更简单的方法来解决。他是怎么做的呢他想出了用降维的方法去构造结果。用一个更低维度的矩阵这里的 W 矩阵是比 K 更低维度的矩阵。最后的 W 就是问题的解答了好了问题到这里整理一下TCA 最后的优化目标是这里的是一个中心矩阵。这个式子下面的条件是什么意思呢那个 min 的目标我们大概理解就是要最小化源 域和目标域的距离加上 W 的约束让它不能太复杂。那么下面的条件是什么呢下面的条 件就是要实现第二个目标维持各自的数据特征。TCA 要维持的是什么特征呢文章中说是 variance但是实际是 scatter matrix就是 数据的散度。就是说一个矩阵散度怎么计算对于一个矩阵它的 scatter matrix 就是。这个就是上面的中心矩阵啦。三、方法小结好了我们现在总结一下 TCA 方法的步骤。输入是两个特征矩阵我们首先计算和矩阵然后选择一些常用的核函数进行映射 (比如线性核、高斯核) 计算接着求的前 m 个特征值。仅此而已。然后得到的就是源域和目标域的降维 后的数据我们就可以在上面用传统机器学习方法了。为了形象地展示 TCA 方法的优势我们借用 [Pan et al., 2011] 中提供的可视化效果 在图中展示了对于源域和目标域数据 (红色和蓝色)分别由 PCA(主成分分析) 和 TCA 得到的分布结果。从图 20中可以很明显地看出对于概率分布不同的两部分数据在经过 TCA 处理后概率分布更加接近。这说明了 TCA 在拉近数据分布距离上的优势。TCA 和 PCA 的效果对比四、参考资料1. 王晋东《迁移学习简明手册》(PDF版)https://www.labxing.com/files/lab_publications/615-1533737180-LiEa0mQe.pdf#page82zoom100,120,3922. 《迁移学习简明手册》发布啦https://zhuanlan.zhihu.com/p/35352154