迁移学习中的领域自适应方法
- 格式:pdf
- 大小:3.32 MB
- 文档页数:44
迁移学习中的领域自适应研究迁移学习是机器学习领域中的一个非常重要的研究方向。
它的目的是将已有的知识迁移到新的环境中,以提高学习效果。
传统的机器学习算法在解决某个特定问题时,通常需要具有大量的标记数据才能进行训练。
但是,在现实生活中,我们面临的问题往往是数据缺乏的,这就给机器学习算法的应用带来了极大的困难。
迁移学习可以通过将在某个领域学习到的知识迁移到新环境中,实现新问题的解决。
迁移学习的核心思想是通过利用不同领域之间的相似性,将已有的知识迁移到新的领域中,从而提高学习的效果。
在实际中,迁移学习可以被应用到很多领域。
其中,领域自适应是一个很重要的研究方向。
领域自适应是指将源领域和目标领域之间的差异降到最小,从而实现迁移学习的过程。
在实际中,不同领域之间的差异是不可避免的,如数据分布、特征表示和标记信息等方面的差异。
所以,如何准确地计算领域之间的相似性,以及如何充分利用源领域的知识,提高在目标领域的学习效果,是领域自适应研究中需要解决的核心问题。
针对领域自适应问题,很多研究者都提出了自己的解决方案。
其中,一些比较典型的方法包括基于实例的方法、基于模型的方法和基于深度学习的方法等。
基于实例的方法是通过对源领域和目标领域中的实例进行比较,计算两个领域之间的相似度,并通过在源领域和目标领域中选择一些相似的实例进行学习。
这种方法的好处在于简单易用,并且不需要太多的领域知识。
但是,由于采用的是实例级别的比较,它对领域之间的差异的适应性并不高。
基于模型的方法是将源领域和目标领域之间的关系建模,并在新的领域中进行迁移。
这种方法需要先训练一个源模型,然后根据源模型和目标领域之间的关系,去调整模型参数,从而实现迁移学习的过程。
与基于实例的方法相比,基于模型的方法可以更充分地利用源领域中的知识,而且对领域之间的差异也有更好的适应性。
基于深度学习的方法是近年来非常流行的领域自适应方案。
它可以通过深度神经网络来表示特征,以提高领域之间的可迁移性。
极视角学术分享王晋东中国科学院计算技术研究所2017年12月14日1迁移学习简介23451 迁移学习的背景⏹智能大数据时代⏹数据量,以及数据类型不断增加⏹对机器学习模型的要求:快速构建和强泛化能力⏹虽然数据量多,但是大部分数据往往没有标注⏹收集标注数据,或者从头开始构建每一个模型,代价高昂且费时⏹对已有标签的数据和模型进行重用成为了可能⏹传统机器学习方法通常假定这些数据服从相同分布,不再适用文本图片及视频音频行为1 迁移学习简介⏹迁移学习⏹通过减小源域(辅助领域)到目标域的分布差异,进行知识迁移,从而实现数据标定。
⏹核心思想⏹找到不同任务之间的相关性⏹“举一反三”、“照猫画虎”,但不要“东施效颦”(负迁移)减小差异知识迁移135源域数据标记数据难获取1 迁移学习应用场景⏹应用前景广阔⏹模式识别、计算机视觉、语音识别、自然语言处理、数据挖掘…不同视角、不同背景、不同光照的图像识别语料匮乏条件下不同语言的相互翻译学习不同用户、不同设备、不同位置的行为识别不同领域、不同背景下的文本翻译、舆情分析不同用户、不同接口、不同情境的人机交互不同场景、不同设备、不同时间的室内定位⏹数据为王,计算是核心⏹数据爆炸的时代!⏹计算机更强大了!⏹但是⏹大数据、大计算能力只是有钱人的游戏⏹云+端的模型被普遍应用⏹通常需要对设备、环境、用户作具体优化⏹个性化适配通常很复杂、很耗时⏹对于不同用户,需要不同的隐私处理方式⏹特定的机器学习应用⏹推荐系统中的冷启动问题:没有数据,如何作推荐?⏹为什么需要迁移学习⏹数据的角度⏹收集数据很困难⏹为数据打标签很耗时⏹训练一对一的模型很繁琐⏹模型的角度⏹个性化模型很复杂⏹云+端的模型需要作具体化适配⏹应用的角度⏹冷启动问题:没有足够用户数据,推荐系统无法工作因此,迁移学习是必要的1 迁移学习简介:迁移学习方法常见的迁移学习方法分类基于实例的迁移(instance based TL)•通过权重重用源域和目标域的样例进行迁移基于特征的迁移(feature based TL)•将源域和目标域的特征变换到相同空间基于模型的迁移(parameter based TL)•利用源域和目标域的参数共享模型基于关系的迁移(relation based TL)•利用源域中的逻辑网络关系进行迁移1 迁移学习简介:迁移学习方法研究领域常见的迁移学习研究领域与方法分类12领域自适应问题345⏹领域自适应问题⏹按照目标域有无标签⏹目标域全部有标签:supervised DA⏹目标域有一些标签:semi-supervised DA⏹目标域全没有标签:unsupervised DA⏹Unsupervised DA最有挑战性,是我们的关注点123领域自适应方法453 领域自适应:方法概览⏹基本假设⏹数据分布角度:源域和目标域的概率分布相似⏹最小化概率分布距离⏹特征选择角度:源域和目标域共享着某些特征⏹选择出这部分公共特征⏹特征变换角度:源域和目标域共享某些子空间⏹把两个域变换到相同的子空间⏹解决思路概率分布适配法(Distribution Adaptation)特征选择法(Feature Selection)子空间学习法(Subspace Learning)数据分布特征选择特征变换假设:条件分布适配(Conditional distribution假设:联合分布适配(Joint distribution adaptation)假设:源域数据目标域数据(1)目标域数据(2)⏹边缘分布适配(1)⏹迁移成分分析(Transfer Component Analysis,TCA)[Pan, TNN-11]⏹优化目标:⏹最大均值差异(Maximum Mean Discrepancy,MMD)⏹边缘分布适配(2)⏹迁移成分分析(TCA)方法的一些扩展⏹Adapting Component Analysis (ACA) [Dorri, ICDM-12]⏹最小化MMD,同时维持迁移过程中目标域的结构⏹Domain Transfer Multiple Kernel Learning (DTMKL) [Duan, PAMI-12]⏹多核MMD⏹Deep Domain Confusion (DDC) [Tzeng, arXiv-14]⏹把MMD加入到神经网络中⏹Deep Adaptation Networks (DAN) [Long, ICML-15]⏹把MKK-MMD加入到神经网络中⏹Distribution-Matching Embedding (DME) [Baktashmotlagh, JMLR-16]⏹先计算变换矩阵,再进行映射⏹Central Moment Discrepancy (CMD) [Zellinger, ICLR-17]⏹不只是一阶的MMD,推广到了k阶⏹条件分布适配⏹Domain Adaptation of Conditional Probability Models viaFeature Subsetting[Satpal, PKDD-07]⏹条件随机场+分布适配⏹优化目标:⏹Conditional Transferrable Components (CTC) [Gong,ICML-15]⏹定义条件转移成分,对其进行建模⏹联合分布适配(1)⏹联合分布适配(Joint Distribution Adaptation,JDA)[Long, ICCV-13]⏹直接继承于TCA,但是加入了条件分布适配⏹优化目标:⏹问题:如何获得估计条件分布?⏹充分统计量:用类条件概率近似条件概率⏹用一个弱分类器生成目标域的初始软标签⏹最终优化形式⏹联合分布适配的结果普遍优于比单独适配边缘或条件分布⏹联合分布适配(2)⏹联合分布适配(JDA)方法的一些扩展⏹Adaptation Regularization (ARTL) [Long, TKDE-14]⏹分类器学习+联合分布适配⏹Visual Domain Adaptation (VDA)[Tahmoresnezhad, KIS-17]⏹加入类内距、类间距⏹Joint Geometrical and Statistical Alignment (JGSA)[Zhang, CVPR-17]⏹加入类内距、类间距、标签适配⏹[Hsu,TIP-16]:加入结构不变性控制⏹[Hsu, AVSS-15]:目标域选择⏹Joint Adaptation Networks (JAN)[Long, ICML-17]⏹提出JMMD度量,在深度网络中进行联合分布适配平衡因子当,表示边缘分布更占优,应该优先适配⏹联合分布适配(4)⏹平衡分布适配(BDA):平衡因子的重要性⏹平衡分布适配(BDA):平衡因子的求解与估计⏹目前尚无精确的估计方法;我们采用A-distance来进行估计⏹求解源域和目标域整体的A-distance⏹对目标域聚类,计算源域和目标域每个类的A-distance ⏹计算上述两个距离的比值,则为平衡因子⏹对于不同的任务,边缘分布和条件分布并不是同等重要,因此,BDA 方法可以有效衡量这两个分布的权重,从而达到最好的结果⏹概率分布适配:总结⏹方法⏹基础:大多数方法基于MMD距离进行优化求解⏹分别进行边缘/条件/联合概率适配⏹效果:平衡(BDA)>联合(JDA)>边缘(TCA)>条件⏹使用⏹数据整体差异性大(相似度较低),边缘分布更重要⏹数据整体差异性小(协方差漂移),条件分布更重要⏹最新成果⏹深度学习+分布适配往往有更好的效果(DDC、DAN、JAN)BDA、JDA、TCA精度比较DDC、DAN、JAN与其他方法结果比较⏹特征选择法(Feature Selection)⏹从源域和目标域中选择提取共享的特征,建立统一模型⏹Structural Correspondence Learning (SCL) [Blitzer, ECML-06]⏹寻找Pivot feature,将源域和目标域进行对齐⏹特征选择法其他扩展⏹Joint feature selection and subspace learning [Gu, IJCAI-11]⏹特征选择/变换+子空间学习⏹优化目标:⏹Transfer Joint Matching (TJM) [Long, CVPR-14]⏹MMD分布适配+源域样本选择⏹优化目标:⏹Feature Selection and Structure Preservation (FSSL) [Li, IJCAI-16]⏹特征选择+信息不变性⏹优化目标:⏹特征选择法:总结⏹从源域和目标域中选择提取共享的特征,建立统一模型⏹通常与分布适配进行结合⏹选择特征通常利用稀疏矩阵⏹子空间学习法(Subspace Learning)⏹将源域和目标域变换到相同的子空间,然后建立统一的模型⏹统计特征变换(Statistical Feature Transformation)⏹将源域和目标域的一些统计特征进行变换对齐⏹流形学习(Manifold Learning)⏹在流形空间中进行子空间变换统计特征变换流形学习⏹统计特征变换(1)⏹子空间对齐法(Subspace Alignment,SA)[Fernando, ICCV-13]⏹直接寻求一个线性变换,把source变换到target空间中⏹优化目标:⏹直接获得线性变换的闭式解:⏹子空间分布对齐法(Subspace Distribution Alignment,SDA)[Sun, BMVC-15]⏹子空间对齐+概率分布适配⏹空间对齐法:方法简洁,计算高效⏹统计特征变换(2)⏹关联对齐法(CORrelation Alignment,CORAL)[Sun, AAAI-15]⏹最小化源域和目标域的二阶统计特征⏹优化目标:⏹形式简单,求解高效⏹深度关联对齐(Deep-CORAL) [Sun, ECCV-16]⏹在深度网络中加入CORAL⏹CORAL loss:⏹流形学习(1)⏹采样测地线流方法(Sample Geodesic Flow, SGF) [Gopalan, ICCV-11]⏹把领域自适应的问题看成一个增量式“行走”问题⏹从源域走到目标域就完成了一个自适应过程⏹在流形空间中采样有限个点,构建一个测地线流⏹测地线流式核方法(Geodesic Flow Kernel,GFK)[Gong, CVPR-12]⏹继承了SGF方法,采样无穷个点⏹转化成Grassmann流形中的核学习,构建了GFK⏹优化目标:SGF方法GFK方法⏹流形学习(2)⏹域不变映射(Domain-Invariant Projection,DIP)[Baktashmotlagh,CVPR-13]⏹直接度量分布距离是不好的:原始空间特征扭曲⏹仅作流形子空间学习:无法刻画分布距离⏹解决方案:流形映射+分布度量⏹统计流形法(Statistical Manifold) [Baktashmotlagh, CVPR-14]⏹在统计流形(黎曼流形)上进行分布度量⏹用Fisher-Rao distance (Hellinger distance)进行度量⏹子空间学习法:总结⏹主要包括统计特征对齐和流形学习方法两大类⏹和分布适配结合效果更好⏹趋势:与神经网络结合1234最新研究成果5⏹领域自适应的最新研究成果(1)⏹与深度学习进行结合⏹Deep Adaptation Networks (DAN)[Long, ICML-15]⏹深度网络+MMD距离最小化⏹Joint Adaptation Networks (JAN)[Long, ICML-17]⏹深度网络+联合分布距离最小化⏹Simultaneous feature and task transfer[Tzeng, ICCV-15]⏹特征和任务同时进行迁移⏹Deep Hashing Network (DHN) [CVPR-17]⏹在深度网络中同时学习域适应和深度Hash特征⏹Label Efficient Learning of Transferable Representations acrossDomains and Tasks [Luo, NIPS-17]⏹在深度网络中进行任务迁移⏹领域自适应的最新研究成果(2)⏹与对抗学习进行结合⏹Domain-adversarial neural network[Ganin, JMLR-16]⏹深度网络中加入对抗[Tzeng, arXiv-17]⏹Adversarial Discriminative Domain Adaptation (ADDA)⏹对抗+判别⏹开放世界领域自适应⏹Open set domain adaptation[Busto, ICCV-17]⏹当源域和目标域只共享一部分类别时如何迁移?⏹与张量(Tensor)表示相结合⏹When DA Meets tensor representation[Lu, ICCV-17]⏹用tensor的思想来做领域自适应⏹与增量学习结合⏹Learning to Transfer (L2T) [Wei, arXiv-17]⏹提取已有的迁移学习经验,应用于新任务12345参考资料图:Office+Caltech、USPS+MNIST、ImageNet+VOC、COIL20数据集•[Pan, TNN‐11] Pan S J, Tsang I W, Kwok J T, et al. Domain adaptation via transfer component analysis[J]. IEEE Transactions on Neural Networks, 2011, 22(2): 199‐210.•[Dorri, ICDM‐12] Dorri F, Ghodsi A. Adapting component analysis[C]//Data Mining (ICDM), 2012 IEEE 12th International Conference on. IEEE, 2012: 846‐851.•[Duan, PAMI‐12] Duan L, Tsang I W, Xu D. Domain transfer multiple kernel learning[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(3): 465‐479.•[Long, ICML‐15] Long M, Cao Y, Wang J, et al. Learning transferable features with deep adaptation networks[C]//International Conference on Machine Learning.2015: 97‐105.•[Baktashmotlagh, JMLR‐16] Baktashmotlagh M, Harandi M, Salzmann M. Distribution‐matching embedding for visual domain adaptation[J]. The Journal of Machine Learning Research, 2016, 17(1): 3760‐3789.•[Zellinger, ICLR‐17] Zellinger W, Grubinger T, Lughofer E, et al. Central moment discrepancy (CMD) for domain‐invariant representation learning[J]. arXiv preprint arXiv:1702.08811, 2017.•[Satpal, PKDD‐07] Satpal S, Sarawagi S. Domain adaptation of conditional probability models via feature subsetting[C]//PKDD. 2007, 4702: 224‐235.•[Gong, ICML‐15] Gong M, Zhang K, Liu T, et al. Domain adaptation with conditional transferable components[C]//International Conference on Machine Learning.2016: 2839‐2848.•[Long, ICCV‐13] M. Long, J. Wang, G. Ding, J. Sun, and P. S. Yu, “Transfer feature learning with joint distribution adaptation,”in ICCV, 2013, pp. 2200–2207.•[Long, TKDE‐14] Long M, Wang J, Ding G, et al. Adaptation regularization: A general framework for transfer learning[J]. IEEE Transactions on Knowledge and Data Engineering, 2014, 26(5): 1076‐1089.•[Tahmoresnezhad, KIS‐17] J. Tahmoresnezhad and S. Hashemi, “Visual domain adaptation via transfer feature learning,” Knowl. Inf. Syst., 2016.•[Zhang, CVPR‐17] Zhang J, Li W, Ogunbona P. Joint Geometrical and Statistical Alignment for Visual Domain Adaptation, CVPR 2017.•[Hsu, AVSS‐15] T. Ming Harry Hsu, W. Yu Chen, C.‐A. Hou, and H. T. et al., “Unsupervised domain adaptation with imbalanced cross‐domain data,” in ICCV, 2015, pp. 4121–4129.•[Hsu, TIP‐16] P.‐H. Hsiao, F.‐J. Chang, and Y.‐Y. Lin, “Learning discriminatively reconstructed source data for object recognition with few examples,” TIP, vol. 25, no.8, pp. 3518–3532, 2016.•[Long, ICML‐17] Long M, Wang J, Jordan M I. Deep transfer learning with joint adaptation networks. ICML 2017.•[Wang, ICDM‐17] Wang J, Chen Y, Hao S, Feng W, Shen Z. Balanced Distribution Adaptation for Transfer Learning. ICDM 2017. pp.1129‐1134.•[Blitzer, ECML‐06] Blitzer J, McDonald R, Pereira F. Domain adaptation with structural correspondence learning[C]//Proceedings of the 2006 conference on empirical methods in natural language processing. Association for Computational Linguistics, 2006: 120‐128.•[Gu, IJCAI‐11] Gu Q, Li Z, Han J. Joint feature selection and subspace learning[C]//IJCAI Proceedings‐International Joint Conference on Artificial Intelligence. 2011, 22(1): 1294.•[Long, CVPR‐14] Long M, Wang J, Ding G, et al. Transfer joint matching for unsupervised domain adaptation[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2014: 1410‐1417.•[Li, IJCAI‐16] Li J, Zhao J, Lu K. Joint Feature Selection and Structure Preservation for Domain Adaptation[C]//IJCAI. 2016: 1697‐1703.•[Fernando, ICCV‐13] Fernando B, Habrard A, Sebban M, et al. Unsupervised visual domain adaptation using subspace alignment[C]//Proceedings of the IEEE international conference on computer vision. 2013: 2960‐2967.•[Sun, BMVC‐15] Sun B, Saenko K. Subspace Distribution Alignment for Unsupervised Domain Adaptation[C]//BMVC. 2015: 24.1‐24.10.•[Sun, AAAI‐16] Sun B, Feng J, Saenko K. Return of Frustratingly Easy Domain Adaptation[C]//AAAI. 2016, 6(7): 8.•[Sun, ECCV‐16] Sun B, Saenko K. Deep coral: Correlation alignment for deep domain adaptation[C]//Computer Vision–ECCV 2016 Workshops. Springer International Publishing, 2016: 443‐450.•[Gopalan, ICCV‐11] Gopalan R, Li R, Chellappa R. Domain adaptation for object recognition: An unsupervised approach[C]//Computer Vision (ICCV), 2011 IEEE International Conference on. IEEE, 2011: 999‐1006.•[Gong, CVPR‐12] Gong B, Shi Y, Sha F, et al. Geodesic flow kernel for unsupervised domain adaptation[C]//Computer Vision and Pattern Recognition (CVPR), 2012 IEEE Conference on. IEEE, 2012: 2066‐2073.•[Baktashmotlagh, CVPR‐13] Baktashmotlagh M, Harandi M T, Lovell B C, et al. Unsupervised domain adaptation by domain invariant projection[C]//Proceedings of the IEEE International Conference on Computer Vision. 2013: 769‐776.•[Baktashmotlagh, CVPR‐14] Baktashmotlagh M, Harandi M T, Lovell B C, et al. Domain adaptation on the statistical manifold[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2014: 2481‐2488.•[Ganin, JMLR‐16] Ganin Y, Ustinova E, Ajakan H, et al. Domain‐adversarial training of neural networks[J]. Journal of Machine Learning Research, 2016, 17(59): 1‐35.•[Busto, ICCV‐17] Panareda Busto P, Gall J. Open Set Domain Adaptation[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.2017: 754‐763.•[Lu, ICCV‐17] Lu H, Zhang L, Cao Z, et al. When unsupervised domain adaptation meets tensor representations. ICCV 2017.•[Tzeng, arXiv‐17] Tzeng E, Hoffman J, Saenko K, et al. Adversarial discriminative domain adaptation[J]. arXiv preprint arXiv:1702.05464, 2017.•[Wei, arXiv‐17] Wei Y, Zhang Y, Yang Q. Learning to Transfer. arXiv1708.05629, 2017.。
对抗学习中的知识迁移和领域自适应方法对抗学习是机器学习领域的一种重要方法,旨在通过两个对抗性的神经网络模型来提高模型的性能。
然而,知识迁移和领域自适应是对抗学习中面临的两个主要挑战。
本文将探讨这两个挑战,并介绍一些应对这些挑战的方法。
知识迁移知识迁移是指将在一个任务中学到的知识应用到另一个任务中。
在对抗学习中,由于训练数据和测试数据之间存在差异,导致在测试阶段模型性能下降。
这种差异可能来自于数据分布的变化、特征空间不同或标签空间不同等。
为了解决这个问题,研究者提出了一些方法来实现知识迁移。
其中一种常见的方法是使用特征选择或特征变换技术来减少特征空间之间的差异。
例如,主成分分析(PCA)可以用于降低维度,并且可以通过选择最重要或最相关的特征来减少差异。
另一种常见方法是使用领域自适应技术,通过在源领域和目标领域之间建立映射函数来减少数据分布之间的差异。
这种方法可以通过最大化源领域和目标领域之间的相似性来实现。
例如,最大均值差异(MMD)可以用于测量两个分布之间的差异,并通过最小化这个差异来实现知识迁移。
在对抗学习中,还有一种方法是使用生成对抗网络(GAN)来进行知识迁移。
GAN是一种由生成器和判别器组成的对抗性模型,其中生成器试图生成与目标数据分布相似的样本,而判别器试图区分真实样本和生成样本。
通过训练这两个模型,可以实现知识迁移。
领域自适应领域自适应是指将在一个领域中学到的知识应用到另一个不同但相关的领域中。
在对抗学习中,由于源领域和目标领域之间存在差异,导致模型在目标领域上性能下降。
为了解决这个问题,研究者提出了一些方法来实现领域自适应。
其中一种常见方法是使用特征选择或特征变换技术来减少特征空间之间的差异。
例如,最大均值差异(MMD)可以用于测量两个分布之间的差异,并通过最小化这个差异来实现领域自适应。
另一种常见方法是使用领域适应网络(DAN)来进行领域自适应。
DAN是一种通过在源领域和目标领域之间建立映射函数来减少数据分布之间的差异的神经网络模型。
迁移学习10大经典算法在机器研究领域中,迁移研究是一种利用已学到的知识来解决新问题的方法。
迁移研究算法可以帮助我们将一个或多个已经训练好的模型的知识迁移到新的任务上,从而加快研究过程并提高性能。
以下是迁移研究领域中的10大经典算法:1. 预训练模型方法(Pre-trained models):通过在大规模数据集上进行预训练,然后将模型迁移到新任务上进行微调。
2. 领域自适应方法(Domain adaptation):通过将源领域的知识应用到目标领域上,解决领域差异导致的问题。
3. 迁移特征选择方法(Transfer feature selection):选择和目标任务相关的有效特征,减少特征维度,提高模型性能。
4. 迁移度量研究方法(Transfer metric learning):通过研究一个度量空间,使得源领域和目标领域之间的距离保持一致,从而实现知识迁移。
5. 多任务研究方法(Multi-task learning):通过同时研究多个相关任务的知识,提高模型的泛化能力。
6. 迁移深度卷积神经网络方法(Transfer deep convolutional neural networks):使用深度卷积神经网络进行特征提取,并迁移到新任务上进行训练。
7. 迁移增强研究方法(Transfer reinforcement learning):将已有的增强研究知识应用到新任务上,优化智能体的决策策略。
8. 迁移聚类方法(Transfer clustering):通过将已有的聚类信息应用到新数据上,实现对未标记数据的聚类。
9. 迁移样本选择方法(Transfer sample selection):通过选择源领域样本和目标领域样本的子集,减少迁移研究中的负迁移影响。
10. 迁移异构研究方法(Transfer heterogeneous learning):处理源领域和目标领域数据类型不一致的问题,例如将文本数据和图像数据进行迁移研究。
人工智能技术的基于迁移学习的领域自适应与知识迁移方法近年来,人工智能技术的发展迅猛,其中的迁移学习和知识迁移方法在不同领域中得到了广泛应用。
迁移学习是指将已经学习到的知识应用于新的任务中,而知识迁移方法则是实现迁移学习的具体手段。
本文将探讨人工智能技术中基于迁移学习的领域自适应与知识迁移方法的相关问题。
首先,迁移学习的核心思想是通过利用已有的知识和经验,帮助解决新任务中的问题。
在人工智能领域中,迁移学习可以应用于图像识别、自然语言处理、机器人控制等多个领域。
例如,在图像识别领域,通过将已经训练好的模型应用于新的图像数据集,可以大大提高图像识别的准确率。
而在自然语言处理领域,迁移学习可以将已经训练好的语言模型应用于新的语言任务中,从而加速模型的训练过程。
然而,迁移学习也面临一些挑战。
首先是领域自适应问题,即如何将已有的知识适应到新的领域中。
不同领域之间的数据分布和特征分布可能存在差异,这就需要在迁移学习中进行领域自适应,使得模型能够适应新的领域。
目前,研究者们提出了许多方法来解决领域自适应问题,例如通过特征选择、特征映射等方式来减小领域之间的差异。
其次,知识迁移方法是实现迁移学习的关键。
知识迁移方法可以分为基于实例的方法和基于模型的方法。
基于实例的方法通过将已有的样本直接应用于新的任务中,从而实现知识的迁移。
而基于模型的方法则通过将已有的模型应用于新的任务中,从而实现知识的迁移。
这两种方法各有优劣,研究者们在实际应用中需要根据具体情况选择适合的方法。
此外,迁移学习还可以与其他技术相结合,进一步提高模型的性能。
例如,迁移学习可以与强化学习相结合,通过将已有的策略应用于新的环境中,从而加速强化学习的训练过程。
迁移学习还可以与深度学习相结合,通过将已有的神经网络应用于新的任务中,从而提高深度学习的效果。
最后,虽然迁移学习在人工智能技术中有着广泛的应用前景,但仍然存在一些问题需要解决。
例如,如何选择合适的源领域和目标领域,以及如何选择合适的知识迁移方法等等。
迁移学习AI技术中的迁移学习方法与应用案例迁移学习是人工智能领域的一种重要技术,它通过将一个领域中的知识和经验应用于另一个相关领域,以提高模型在新领域上的性能。
本文将介绍迁移学习方法以及一些应用案例,以展示它在AI技术中的重要性和潜力。
一、迁移学习方法1. 领域自适应领域自适应是迁移学习中常用的方法之一。
在这种方法中,源领域和目标领域之间存在一定的差异,例如数据分布、特征空间等。
通过使用各种领域自适应算法,可以减小这些差异,从而提高在目标领域上的性能。
常见的领域自适应方法包括最大均值差异、核对齐、特征选择等。
2. 重标定重标定是一种将源领域的标签重新映射到目标领域的方法。
通过建立源领域和目标领域之间的标签映射函数,可以使得源领域上的模型能够适应目标领域的标签分布。
重标定方法包括有监督和无监督两种,其中无监督方法更适用于目标领域未标记的情况。
3. 预训练模型迁移预训练模型迁移是将在一个大规模数据集上预训练过的模型迁移到目标任务中。
通过将模型的参数进行微调,可以在目标任务上获得更好的性能。
常见的预训练模型包括深度神经网络模型、卷积神经网络模型等。
二、迁移学习应用案例1. 图像分类在图像分类任务中,迁移学习可以帮助解决样本数据不足的问题。
例如,当源领域有丰富的标记数据,而目标领域的数据较少时,可以使用迁移学习方法将源领域的知识迁移到目标领域上。
通过使用预训练模型迁移和领域自适应方法,可以提高目标领域图像分类的准确性。
2. 文本情感分析文本情感分析是判断文本情感倾向的任务,例如判断一段文本是正面的、负面的还是中性的。
当源领域有大量情感标记的文本数据,而目标领域的情感标签较少时,可以使用迁移学习方法将源领域的情感知识迁移到目标领域上。
通过重标定和领域自适应方法,可以提高目标领域情感分析的准确性。
3. 语音识别语音识别是将语音信号转换为文本的任务。
当源领域中有大量的语音数据和对应的文本标签,而目标领域的语音数据较少时,可以使用迁移学习方法将源领域的语音识别知识迁移到目标领域上。
迁移学习方法研究综述概述迁移学习是一项重要的研究领域,旨在利用在一个任务上学到的知识来改善在另一个相关任务上的性能。
相比于传统的机器学习方法,迁移学习可以充分利用不同任务之间的相似性,从而减少对大量标注数据的依赖,提高模型的泛化能力。
本综述将介绍目前主流的迁移学习方法,并分析其优缺点及应用领域。
I. 领域自适应方法(Domain Adaptation)领域自适应方法旨在解决源领域和目标领域之间的差异,从而提高迁移学习的效果。
主要方法包括如下几种:1. 基于实例的方法基于实例的方法通过选择和调整源领域中的样本,使其更适应于目标领域,从而实现知识的迁移。
比较常用的算法有:最大均值差异(Maximum Mean Discrepancy,MMD)、核平均迁移(Kernel Mean Matching,KMM)等。
2. 基于特征的方法基于特征的方法通过映射源领域和目标领域的特征空间,使其更加一致,从而减小领域差异。
主要的方法包括:主成分分析(Principal Component Analysis,PCA)、典型相关分析(Canonical Correlation Analysis,CCA)等。
3. 基于模型的方法基于模型的方法通过构建一个适应目标领域的模型,从而减小领域间的差异。
常用的方法有:领域对抗神经网络(Domain Adversarial Neural Networks,DANN)、条件变换网络(Conditional Transformation Networks,CTN)等。
II. 增量学习方法(Incremental Learning)增量学习方法旨在解决在源任务上学习到的知识如何迁移到目标任务上,并适应目标任务中新增的数据。
主要方法包括如下几种:1. 学习率衰减方法学习率衰减方法通过逐渐减小学习率,使新任务的权重得到更多的更新。
常用的方法有:弹性减少(Elastic Weight Consolidation,EWC)和增量正则化(Incremental Regularization,IR)等。
迁移学习中的领域自适应方法研究引言随着人工智能的快速发展,迁移学习在计算机科学领域日益受到关注。
在现实世界中,我们往往面临的是数据不足或者不平衡的情况,因此传统的机器学习方法可能无法充分应用。
迁移学习通过利用源领域中已经学习到的知识,应用到目标领域中,解决了这一问题。
领域自适应是迁移学习中的一种重要方法,它主要致力于解决源领域和目标领域之间的分布差异问题,使得在目标领域上的表现更好。
1. 领域自适应概述领域自适应是指在迁移学习中,源领域和目标领域之间存在着分布差异的情况下,通过一系列方法和技术,使得模型在目标领域上表现更好的过程。
在传统的机器学习中,通常假设样本独立同分布,但在现实情况中,这种假设往往难以满足。
领域自适应方法的出现,为我们提供了一种有效的解决方案。
2. 领域自适应方法分类领域自适应方法可以分为基于实例的方法和基于特征的方法。
基于实例的方法主要通过实例选择、重标定和实例生成等方式,使得源领域和目标领域之间的分布差异最小化。
基于特征的方法则通过特征选择、特征映射和特征转换等方式,将不同领域的特征进行统一,以达到降低分布差异的目的。
此外,还有一些集成两种方法的混合方法,以进一步提高领域自适应的性能。
3. 基于实例的领域自适应方法基于实例的领域自适应方法主要包括实例选择、重标定和实例生成等技术。
实例选择方法通过选择源领域和目标领域中相似的实例进行训练,以降低分布差异。
重标定方法通过适应性重标定的方式,将源领域的样本从源领域空间映射到目标领域空间。
实例生成方法则通过生成一些虚拟的目标领域样本,以增加目标领域的训练样本,提高模型在目标领域上的表现。
4. 基于特征的领域自适应方法基于特征的领域自适应方法主要通过特征选择、特征映射和特征转换等方式,将不同领域的特征进行统一,以降低分布差异。
特征选择方法通过选择对目标领域有用的特征进行训练,提高模型在目标领域上的表现。
特征映射方法通过找到源领域和目标领域之间的映射关系,将源领域的特征映射到目标领域的特征空间。
人工智能技术的迁移学习与领域自适应技巧随着科技的快速发展,人工智能(Artificial Intelligence)技术在各个领域得到了广泛的应用。
人工智能技术的核心是利用计算机模拟人脑的智能,实现自主学习和决策的能力。
然而,在现实生活中,我们面临着需要将人工智能技术应用到新的领域或解决新问题的挑战。
在这种情况下,迁移学习(Transfer Learning)和领域自适应(Domain Adaptation)技巧成为了重要的工具。
迁移学习是一种通过从已经学习到的领域中转移知识和经验到新的问题和领域中进行学习的方法。
它的核心思想是利用已经学习到的模型或知识来帮助新问题的解决。
迁移学习可以通过不同层面的迁移实现,包括特征层面的迁移、参数层面的迁移和任务层面的迁移。
在实际应用中,迁移学习可以帮助解决数据集稀缺、标签不足以及领域之间差异等问题。
领域自适应是迁移学习的重要领域,专注于在源领域(Source Domain)上学习到的知识适应到目标领域(Target Domain)中去。
在实际应用中,源领域和目标领域可能存在数据分布差异、特征差异或标签差异等问题。
领域自适应技巧通过减小源领域和目标领域之间的差异,实现知识迁移,从而提高目标任务的性能。
迁移学习和领域自适应的核心挑战在于如何找到源领域和目标领域之间的联系并进行知识迁移。
一种常见的方法是通过共享特征空间来实现迁移学习。
通过映射源领域和目标领域的数据到相同的特征空间,可以减小领域之间的差异。
这可以通过最大均值差异(Maximum Mean Discrepancy)和领域对抗网络(Domain Adversarial Network)等方法来实现。
另外一个重要的问题是如何选择合适的迁移策略。
不同的问题和领域可能需要不同的迁移策略。
一种常见的做法是根据源领域和目标领域的相似性进行选择。
如果源领域和目标领域之间的相似性较高,可以选择直接迁移源领域中的模型到目标领域中。
深度迁移学习中的域适应方法深度学习在计算机视觉、自然语言处理等领域取得了令人瞩目的成果,但在实际应用中,往往需要在不同的领域之间迁移学习。
然而,不同领域之间的数据分布往往存在差异,这导致传统的迁移学习方法无法有效地将知识从一个领域迁移到另一个领域。
为了解决这个问题,研究人员提出了一系列的域适应方法,帮助实现在深度迁移学习中的知识迁移。
本文将介绍几种常见的域适应方法,并分析其优缺点。
一、领域自适应(Domain Adaptation)领域自适应是一种常见的域适应方法,其目标是通过对源领域数据进行调整,使其在目标领域上表现更好。
最常见的领域自适应方法是通过最小化源领域和目标领域之间的分布差异来实现。
具体方法包括最大均值差异(Maximum Mean Discrepancy)和领域对抗神经网络(Domain Adversarial Neural Network)等。
1. 最大均值差异(Maximum Mean Discrepancy)最大均值差异是一种基于核方法的领域自适应方法。
该方法通过最小化源领域和目标领域的均值差异,来实现领域适应。
具体方法是通过将源领域数据和目标领域数据映射到一个特征空间,在特征空间中计算源领域和目标领域之间的均值差异,并最小化这个差异。
2. 领域对抗神经网络(Domain Adversarial Neural Network)领域对抗神经网络是一种深度学习方法,通过引入一个领域分类器来学习源领域和目标领域之间的差异。
具体方法是将源领域数据和目标领域数据输入到一个共享的特征提取器中,然后将提取到的特征输入到领域分类器和任务分类器中。
领域分类器的目标是将源领域和目标领域进行区分,而任务分类器的目标是进行分类任务。
通过对抗训练的方式,领域对抗神经网络能够降低源领域和目标领域之间的分布差异,实现领域适应。
二、特征选择(Feature Selection)特征选择是另一种常见的域适应方法,其目标是寻找对源领域和目标领域都有用的特征,去除对迁移学习无用的特征。
极视角学术分享王晋东中国科学院计算技术研究所2017年12月14日1迁移学习简介23451 迁移学习的背景⏹智能大数据时代⏹数据量,以及数据类型不断增加⏹对机器学习模型的要求:快速构建和强泛化能力⏹虽然数据量多,但是大部分数据往往没有标注⏹收集标注数据,或者从头开始构建每一个模型,代价高昂且费时⏹对已有标签的数据和模型进行重用成为了可能⏹传统机器学习方法通常假定这些数据服从相同分布,不再适用文本图片及视频音频行为1 迁移学习简介⏹迁移学习⏹通过减小源域(辅助领域)到目标域的分布差异,进行知识迁移,从而实现数据标定。
⏹核心思想⏹找到不同任务之间的相关性⏹“举一反三”、“照猫画虎”,但不要“东施效颦”(负迁移)减小差异知识迁移135源域数据标记数据难获取1 迁移学习应用场景⏹应用前景广阔⏹模式识别、计算机视觉、语音识别、自然语言处理、数据挖掘…不同视角、不同背景、不同光照的图像识别语料匮乏条件下不同语言的相互翻译学习不同用户、不同设备、不同位置的行为识别不同领域、不同背景下的文本翻译、舆情分析不同用户、不同接口、不同情境的人机交互不同场景、不同设备、不同时间的室内定位⏹数据为王,计算是核心⏹数据爆炸的时代!⏹计算机更强大了!⏹但是⏹大数据、大计算能力只是有钱人的游戏⏹云+端的模型被普遍应用⏹通常需要对设备、环境、用户作具体优化⏹个性化适配通常很复杂、很耗时⏹对于不同用户,需要不同的隐私处理方式⏹特定的机器学习应用⏹推荐系统中的冷启动问题:没有数据,如何作推荐?⏹为什么需要迁移学习⏹数据的角度⏹收集数据很困难⏹为数据打标签很耗时⏹训练一对一的模型很繁琐⏹模型的角度⏹个性化模型很复杂⏹云+端的模型需要作具体化适配⏹应用的角度⏹冷启动问题:没有足够用户数据,推荐系统无法工作因此,迁移学习是必要的1 迁移学习简介:迁移学习方法常见的迁移学习方法分类基于实例的迁移(instance based TL)•通过权重重用源域和目标域的样例进行迁移基于特征的迁移(feature based TL)•将源域和目标域的特征变换到相同空间基于模型的迁移(parameter based TL)•利用源域和目标域的参数共享模型基于关系的迁移(relation based TL)•利用源域中的逻辑网络关系进行迁移1 迁移学习简介:迁移学习方法研究领域常见的迁移学习研究领域与方法分类12领域自适应问题345⏹领域自适应问题⏹按照目标域有无标签⏹目标域全部有标签:supervised DA⏹目标域有一些标签:semi-supervised DA⏹目标域全没有标签:unsupervised DA⏹Unsupervised DA最有挑战性,是我们的关注点123领域自适应方法453 领域自适应:方法概览⏹基本假设⏹数据分布角度:源域和目标域的概率分布相似⏹最小化概率分布距离⏹特征选择角度:源域和目标域共享着某些特征⏹选择出这部分公共特征⏹特征变换角度:源域和目标域共享某些子空间⏹把两个域变换到相同的子空间⏹解决思路概率分布适配法(Distribution Adaptation)特征选择法(Feature Selection)子空间学习法(Subspace Learning)数据分布特征选择特征变换假设:条件分布适配(Conditional distribution假设:联合分布适配(Joint distribution adaptation)假设:源域数据目标域数据(1)目标域数据(2)⏹边缘分布适配(1)⏹迁移成分分析(Transfer Component Analysis,TCA)[Pan, TNN-11]⏹优化目标:⏹最大均值差异(Maximum Mean Discrepancy,MMD)⏹边缘分布适配(2)⏹迁移成分分析(TCA)方法的一些扩展⏹Adapting Component Analysis (ACA) [Dorri, ICDM-12]⏹最小化MMD,同时维持迁移过程中目标域的结构⏹Domain Transfer Multiple Kernel Learning (DTMKL) [Duan, PAMI-12]⏹多核MMD⏹Deep Domain Confusion (DDC) [Tzeng, arXiv-14]⏹把MMD加入到神经网络中⏹Deep Adaptation Networks (DAN) [Long, ICML-15]⏹把MKK-MMD加入到神经网络中⏹Distribution-Matching Embedding (DME) [Baktashmotlagh, JMLR-16]⏹先计算变换矩阵,再进行映射⏹Central Moment Discrepancy (CMD) [Zellinger, ICLR-17]⏹不只是一阶的MMD,推广到了k阶⏹条件分布适配⏹Domain Adaptation of Conditional Probability Models viaFeature Subsetting[Satpal, PKDD-07]⏹条件随机场+分布适配⏹优化目标:⏹Conditional Transferrable Components (CTC) [Gong,ICML-15]⏹定义条件转移成分,对其进行建模⏹联合分布适配(1)⏹联合分布适配(Joint Distribution Adaptation,JDA)[Long, ICCV-13]⏹直接继承于TCA,但是加入了条件分布适配⏹优化目标:⏹问题:如何获得估计条件分布?⏹充分统计量:用类条件概率近似条件概率⏹用一个弱分类器生成目标域的初始软标签⏹最终优化形式⏹联合分布适配的结果普遍优于比单独适配边缘或条件分布⏹联合分布适配(2)⏹联合分布适配(JDA)方法的一些扩展⏹Adaptation Regularization (ARTL) [Long, TKDE-14]⏹分类器学习+联合分布适配⏹Visual Domain Adaptation (VDA)[Tahmoresnezhad, KIS-17]⏹加入类内距、类间距⏹Joint Geometrical and Statistical Alignment (JGSA)[Zhang, CVPR-17]⏹加入类内距、类间距、标签适配⏹[Hsu,TIP-16]:加入结构不变性控制⏹[Hsu, AVSS-15]:目标域选择⏹Joint Adaptation Networks (JAN)[Long, ICML-17]⏹提出JMMD度量,在深度网络中进行联合分布适配平衡因子当,表示边缘分布更占优,应该优先适配⏹联合分布适配(4)⏹平衡分布适配(BDA):平衡因子的重要性⏹平衡分布适配(BDA):平衡因子的求解与估计⏹目前尚无精确的估计方法;我们采用A-distance来进行估计⏹求解源域和目标域整体的A-distance⏹对目标域聚类,计算源域和目标域每个类的A-distance ⏹计算上述两个距离的比值,则为平衡因子⏹对于不同的任务,边缘分布和条件分布并不是同等重要,因此,BDA 方法可以有效衡量这两个分布的权重,从而达到最好的结果⏹概率分布适配:总结⏹方法⏹基础:大多数方法基于MMD距离进行优化求解⏹分别进行边缘/条件/联合概率适配⏹效果:平衡(BDA)>联合(JDA)>边缘(TCA)>条件⏹使用⏹数据整体差异性大(相似度较低),边缘分布更重要⏹数据整体差异性小(协方差漂移),条件分布更重要⏹最新成果⏹深度学习+分布适配往往有更好的效果(DDC、DAN、JAN)BDA、JDA、TCA精度比较DDC、DAN、JAN与其他方法结果比较⏹特征选择法(Feature Selection)⏹从源域和目标域中选择提取共享的特征,建立统一模型⏹Structural Correspondence Learning (SCL) [Blitzer, ECML-06]⏹寻找Pivot feature,将源域和目标域进行对齐⏹特征选择法其他扩展⏹Joint feature selection and subspace learning [Gu, IJCAI-11]⏹特征选择/变换+子空间学习⏹优化目标:⏹Transfer Joint Matching (TJM) [Long, CVPR-14]⏹MMD分布适配+源域样本选择⏹优化目标:⏹Feature Selection and Structure Preservation (FSSL) [Li, IJCAI-16]⏹特征选择+信息不变性⏹优化目标:⏹特征选择法:总结⏹从源域和目标域中选择提取共享的特征,建立统一模型⏹通常与分布适配进行结合⏹选择特征通常利用稀疏矩阵⏹子空间学习法(Subspace Learning)⏹将源域和目标域变换到相同的子空间,然后建立统一的模型⏹统计特征变换(Statistical Feature Transformation)⏹将源域和目标域的一些统计特征进行变换对齐⏹流形学习(Manifold Learning)⏹在流形空间中进行子空间变换统计特征变换流形学习⏹统计特征变换(1)⏹子空间对齐法(Subspace Alignment,SA)[Fernando, ICCV-13]⏹直接寻求一个线性变换,把source变换到target空间中⏹优化目标:⏹直接获得线性变换的闭式解:⏹子空间分布对齐法(Subspace Distribution Alignment,SDA)[Sun, BMVC-15]⏹子空间对齐+概率分布适配⏹空间对齐法:方法简洁,计算高效⏹统计特征变换(2)⏹关联对齐法(CORrelation Alignment,CORAL)[Sun, AAAI-15]⏹最小化源域和目标域的二阶统计特征⏹优化目标:⏹形式简单,求解高效⏹深度关联对齐(Deep-CORAL) [Sun, ECCV-16]⏹在深度网络中加入CORAL⏹CORAL loss:⏹流形学习(1)⏹采样测地线流方法(Sample Geodesic Flow, SGF) [Gopalan, ICCV-11]⏹把领域自适应的问题看成一个增量式“行走”问题⏹从源域走到目标域就完成了一个自适应过程⏹在流形空间中采样有限个点,构建一个测地线流⏹测地线流式核方法(Geodesic Flow Kernel,GFK)[Gong, CVPR-12]⏹继承了SGF方法,采样无穷个点⏹转化成Grassmann流形中的核学习,构建了GFK⏹优化目标:SGF方法GFK方法⏹流形学习(2)⏹域不变映射(Domain-Invariant Projection,DIP)[Baktashmotlagh,CVPR-13]⏹直接度量分布距离是不好的:原始空间特征扭曲⏹仅作流形子空间学习:无法刻画分布距离⏹解决方案:流形映射+分布度量⏹统计流形法(Statistical Manifold) [Baktashmotlagh, CVPR-14]⏹在统计流形(黎曼流形)上进行分布度量⏹用Fisher-Rao distance (Hellinger distance)进行度量⏹子空间学习法:总结⏹主要包括统计特征对齐和流形学习方法两大类⏹和分布适配结合效果更好⏹趋势:与神经网络结合1234最新研究成果5⏹领域自适应的最新研究成果(1)⏹与深度学习进行结合⏹Deep Adaptation Networks (DAN)[Long, ICML-15]⏹深度网络+MMD距离最小化⏹Joint Adaptation Networks (JAN)[Long, ICML-17]⏹深度网络+联合分布距离最小化⏹Simultaneous feature and task transfer[Tzeng, ICCV-15]⏹特征和任务同时进行迁移⏹Deep Hashing Network (DHN) [CVPR-17]⏹在深度网络中同时学习域适应和深度Hash特征⏹Label Efficient Learning of Transferable Representations acrossDomains and Tasks [Luo, NIPS-17]⏹在深度网络中进行任务迁移⏹领域自适应的最新研究成果(2)⏹与对抗学习进行结合⏹Domain-adversarial neural network[Ganin, JMLR-16]⏹深度网络中加入对抗[Tzeng, arXiv-17]⏹Adversarial Discriminative Domain Adaptation (ADDA)⏹对抗+判别⏹开放世界领域自适应⏹Open set domain adaptation[Busto, ICCV-17]⏹当源域和目标域只共享一部分类别时如何迁移?⏹与张量(Tensor)表示相结合⏹When DA Meets tensor representation[Lu, ICCV-17]⏹用tensor的思想来做领域自适应⏹与增量学习结合⏹Learning to Transfer (L2T) [Wei, arXiv-17]⏹提取已有的迁移学习经验,应用于新任务12345参考资料图:Office+Caltech、USPS+MNIST、ImageNet+VOC、COIL20数据集•[Pan, TNN‐11] Pan S J, Tsang I W, Kwok J T, et al. Domain adaptation via transfer component analysis[J]. IEEE Transactions on Neural Networks, 2011, 22(2): 199‐210.•[Dorri, ICDM‐12] Dorri F, Ghodsi A. Adapting component analysis[C]//Data Mining (ICDM), 2012 IEEE 12th International Conference on. IEEE, 2012: 846‐851.•[Duan, PAMI‐12] Duan L, Tsang I W, Xu D. Domain transfer multiple kernel learning[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(3): 465‐479.•[Long, ICML‐15] Long M, Cao Y, Wang J, et al. Learning transferable features with deep adaptation networks[C]//International Conference on Machine Learning.2015: 97‐105.•[Baktashmotlagh, JMLR‐16] Baktashmotlagh M, Harandi M, Salzmann M. Distribution‐matching embedding for visual domain adaptation[J]. The Journal of Machine Learning Research, 2016, 17(1): 3760‐3789.•[Zellinger, ICLR‐17] Zellinger W, Grubinger T, Lughofer E, et al. Central moment discrepancy (CMD) for domain‐invariant representation learning[J]. arXiv preprint arXiv:1702.08811, 2017.•[Satpal, PKDD‐07] Satpal S, Sarawagi S. Domain adaptation of conditional probability models via feature subsetting[C]//PKDD. 2007, 4702: 224‐235.•[Gong, ICML‐15] Gong M, Zhang K, Liu T, et al. Domain adaptation with conditional transferable components[C]//International Conference on Machine Learning.2016: 2839‐2848.•[Long, ICCV‐13] M. Long, J. Wang, G. Ding, J. Sun, and P. S. Yu, “Transfer feature learning with joint distribution adaptation,”in ICCV, 2013, pp. 2200–2207.•[Long, TKDE‐14] Long M, Wang J, Ding G, et al. Adaptation regularization: A general framework for transfer learning[J]. IEEE Transactions on Knowledge and Data Engineering, 2014, 26(5): 1076‐1089.•[Tahmoresnezhad, KIS‐17] J. Tahmoresnezhad and S. Hashemi, “Visual domain adaptation via transfer feature learning,” Knowl. Inf. Syst., 2016.•[Zhang, CVPR‐17] Zhang J, Li W, Ogunbona P. Joint Geometrical and Statistical Alignment for Visual Domain Adaptation, CVPR 2017.•[Hsu, AVSS‐15] T. Ming Harry Hsu, W. Yu Chen, C.‐A. Hou, and H. T. et al., “Unsupervised domain adaptation with imbalanced cross‐domain data,” in ICCV, 2015, pp. 4121–4129.•[Hsu, TIP‐16] P.‐H. Hsiao, F.‐J. Chang, and Y.‐Y. Lin, “Learning discriminatively reconstructed source data for object recognition with few examples,” TIP, vol. 25, no.8, pp. 3518–3532, 2016.•[Long, ICML‐17] Long M, Wang J, Jordan M I. Deep transfer learning with joint adaptation networks. ICML 2017.•[Wang, ICDM‐17] Wang J, Chen Y, Hao S, Feng W, Shen Z. Balanced Distribution Adaptation for Transfer Learning. ICDM 2017. pp.1129‐1134.•[Blitzer, ECML‐06] Blitzer J, McDonald R, Pereira F. Domain adaptation with structural correspondence learning[C]//Proceedings of the 2006 conference on empirical methods in natural language processing. Association for Computational Linguistics, 2006: 120‐128.•[Gu, IJCAI‐11] Gu Q, Li Z, Han J. Joint feature selection and subspace learning[C]//IJCAI Proceedings‐International Joint Conference on Artificial Intelligence. 2011, 22(1): 1294.•[Long, CVPR‐14] Long M, Wang J, Ding G, et al. Transfer joint matching for unsupervised domain adaptation[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2014: 1410‐1417.•[Li, IJCAI‐16] Li J, Zhao J, Lu K. Joint Feature Selection and Structure Preservation for Domain Adaptation[C]//IJCAI. 2016: 1697‐1703.•[Fernando, ICCV‐13] Fernando B, Habrard A, Sebban M, et al. Unsupervised visual domain adaptation using subspace alignment[C]//Proceedings of the IEEE international conference on computer vision. 2013: 2960‐2967.•[Sun, BMVC‐15] Sun B, Saenko K. Subspace Distribution Alignment for Unsupervised Domain Adaptation[C]//BMVC. 2015: 24.1‐24.10.•[Sun, AAAI‐16] Sun B, Feng J, Saenko K. Return of Frustratingly Easy Domain Adaptation[C]//AAAI. 2016, 6(7): 8.•[Sun, ECCV‐16] Sun B, Saenko K. Deep coral: Correlation alignment for deep domain adaptation[C]//Computer Vision–ECCV 2016 Workshops. Springer International Publishing, 2016: 443‐450.•[Gopalan, ICCV‐11] Gopalan R, Li R, Chellappa R. Domain adaptation for object recognition: An unsupervised approach[C]//Computer Vision (ICCV), 2011 IEEE International Conference on. IEEE, 2011: 999‐1006.•[Gong, CVPR‐12] Gong B, Shi Y, Sha F, et al. Geodesic flow kernel for unsupervised domain adaptation[C]//Computer Vision and Pattern Recognition (CVPR), 2012 IEEE Conference on. IEEE, 2012: 2066‐2073.•[Baktashmotlagh, CVPR‐13] Baktashmotlagh M, Harandi M T, Lovell B C, et al. Unsupervised domain adaptation by domain invariant projection[C]//Proceedings of the IEEE International Conference on Computer Vision. 2013: 769‐776.•[Baktashmotlagh, CVPR‐14] Baktashmotlagh M, Harandi M T, Lovell B C, et al. Domain adaptation on the statistical manifold[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2014: 2481‐2488.•[Ganin, JMLR‐16] Ganin Y, Ustinova E, Ajakan H, et al. Domain‐adversarial training of neural networks[J]. Journal of Machine Learning Research, 2016, 17(59): 1‐35.•[Busto, ICCV‐17] Panareda Busto P, Gall J. Open Set Domain Adaptation[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.2017: 754‐763.•[Lu, ICCV‐17] Lu H, Zhang L, Cao Z, et al. When unsupervised domain adaptation meets tensor representations. ICCV 2017.•[Tzeng, arXiv‐17] Tzeng E, Hoffman J, Saenko K, et al. Adversarial discriminative domain adaptation[J]. arXiv preprint arXiv:1702.05464, 2017.•[Wei, arXiv‐17] Wei Y, Zhang Y, Yang Q. Learning to Transfer. arXiv1708.05629, 2017.。