李俊江_吉林大学金融学院_研究生导师_创新助手_人物报告_2016-01-20
- 格式:pdf
- 大小:340.05 KB
- 文档页数:16
全球金融危机下的东亚货币金融合作
焦国伟
【期刊名称】《国际学术动态》
【年(卷),期】2010(000)004
【摘要】由吉林大学经济学院主办、《东亚经贸新闻》协办的“全球金融危机下的东亚货币金融合作”中日经济研讨会,于2009年5月25—26日在长春召开。
吉林大学党委常务副书记兼副校长王胜今教授、吉林大学社会科学处处长孙长智教授出席开幕式并先后致辞。
王胜今教授指出,国际金融危机对世界经济特别是东亚经济发展带来了巨大冲击和影响,但同时也为东亚地区货币金融合作的深化发展带来了机遇。
【总页数】2页(P3-4)
【作者】焦国伟
【作者单位】吉林大学经济学院,长春130012
【正文语种】中文
【中图分类】F833.05
【相关文献】
1.全球金融危机条件下的东亚金融合作 [J], 杨明华;李晨
2.金融危机后东亚货币金融合作路径探讨 [J], 杨婷婷
3.东亚生产网络形成背景下的货币金融合作研究 [J], 张竞月;李冉旭
4.中日韩三国经济合作与东亚区域性公共产品的供应——以全球金融危机为背景
[J], 王双
5.全球金融危机下东亚货币金融合作的路径选择 [J], 李晓
因版权原因,仅展示原文概要,查看原文内容请购买。
收稿日期:2019-01-04作者简介:李连辉,男,硕士,吉林大学经济学院金融系讲师,研究方向为货币银行和国际经济。
中国对“一带一路”沿线国家直接投资区位分布及产业选择分析李连辉(吉林大学,吉林长春130012)摘要:中国对外直接投资格局的转变发生在2005年左右。
由于国内强劲的需求,国际大宗商品进口价格飙升,国有企业出于保障供给和获取利润的动机,开始尝试在海外进行矿业并购投资。
之后在对自然资源投资增加的推动下,我国对外直接投资开始快速增长。
2013年,我国提出“一带一路”倡议,极大地促进了我国对沿线国家的直接投资。
本文通过分析我国对“一带一路”沿线国家进行直接投资的动机和区位分布,梳理我国对沿线国家进行直接投资的产业分布。
关键词:“一带一路”;对外直接投资;产业分布;投资动机;区位分布中图分类号:F062.9文献标识码:A文章编号:1674-5477(2019)04-0079-06一、引言长期以来,我国一直致力于吸收外部资金,以与我国丰富的劳动力资源相匹配,以此来促进我国经济的快速发展。
经过近40年的不断努力,我国经济取得了长足的进步。
从2004年开始,我国的对外直接投资开始增速。
截至2017年底,我国对外直接投资年均增长率为32%,高于我国每年实际利用外资的增长率的7%。
2004~2016年,我国对外投资每年均是处于增长状态,但2017年较前一年增长率下降23%。
2014年我国实际利用外资1195.6亿美元,同期我国对外直接投资为1231.1亿美元,我国对外直接投资首次超过实际利用外资金额,成为一个资本净输出国。
根据联合国贸发会议世界投资报告显示,2017年全球外国直接投资流量1.43万亿美元,存量30.84万亿美元。
以此为基数计算,我国对外直接投资分别占全球当年流量的11.1%,存量的5.9%,流量位列全球第3,存量位列全球第2。
从我国对外直接投资流量的地区分布来看,亚洲仍然是我国对外直接投资的主要目的地,2017年我国在亚洲的直接投资流量占我国全部对外投资流量的69.6%。
第41卷 第1期吉林大学学报(信息科学版)Vol.41 No.12023年1月Journal of Jilin University (Information Science Edition)Jan.2023文章编号:1671⁃5896(2023)01⁃0076⁃08基于循环生成对抗网络的人脸素描合成网络设计收稿日期:2021⁃03⁃11基金项目:黑龙江省自然科学基金资助项目(LH2020F005)作者简介:葛延良(1979 ),男,黑龙江大庆人,东北石油大学副教授,主要从事图像处理㊁计算机视觉㊁无线通信研究,(Tel)86⁃158****3399(E⁃mail)geyanliang@;通讯作者:孙笑笑(1993 ),女,河南商丘人,东北石油大学硕士研究生,主要从事生成对抗网络㊁人脸素描融合研究,(Tel)86⁃159****1939(E⁃mail)3076266954@㊂葛延良,孙笑笑,王冬梅,王肖肖,谭 爽(东北石油大学电气信息工程学院,黑龙江大庆163318)摘要:针对目前人脸到素描合成存在生成的素描图轮廓模糊㊁细节纹理缺失等问题,提出一种采用循环生成对抗网络(CycleGAN:Cycle⁃Generative Adversarial Networks)解决方案㊂构建多尺度CycleGAN,生成器采用深度监督的U⁃Net++结构为基础,在其解码器端进行下采样密集跳跃连接;在其生成器的编码器端设计通道注意力和和空间注意力机制形成特征增强模块;最后在生成器中增加像素注意力模块㊂实验结果表明,与现有经典算法相比,从主观视觉评测和利用现有的4种图像质量评价算法进行质量评估,该方法较好地合成了素描图像的几何边缘和面部细节信息,提高了素描图像的质量㊂关键词:深度学习;多尺度CycleGAN;卷积神经网络;特征增强模块;像素注意力模块中图分类号:TP391.41;TP183文献标志码:ADesign of Face Sketch Synthesis Based on Cycle⁃Generative Adversarial NetworksGE Yanliang,SUN Xiaoxiao,WANG Dongmei,WANG Xiaoxiao,TAN Shuang(School of Electrical and Information Engineering,Northeast Petroleum University,Daqing 163318,China)Abstract :At present,Face sketch synthesis has a series of problems,such as generateing fuzzy outline,lacking of detail texture and so on.Therefore,using CycleGAN(Cycle⁃Generative Adversarial Networks)as a solution to build multi⁃scale cyclegan is proposed.Method innovation is mainly reflected in:The generator adopts the deep supervised U⁃net++structure as the basis,and performs down sampling dense jump connection at its decoder;The encoder end of the generator designs the channel attention and spatial attention mechanism to form a feature enhancement module;a pixel attention module is added to the pared with some existing classical algorithms,from the subjective visual evaluation and using the existing four image quality evaluation algorithms for quality evaluation,the experimental results show that this algorithm can better synthesize the geometric edge and facial detail information of sketch image,and improve the quality of sketchimage.Key words :deep learning;multi⁃scale cycle⁃generative adversarial networks (CycleGAN);convolutional neuralnetworks(CNN);feature enhancement module;pixel attention module 0 引 言近年来,作为图像风格迁移的一个分支[1],人脸素描合成(FSS:Face Sketch Synthesis)得到广泛关注㊂人脸素描合成是指将人脸转化为相对应的素描图像,其在生活,数字娱乐,漫画制作[2]及电影制作等多个行业中应用广泛㊂2014年,Goodfellow 等[3]首次提出生成对抗网络(GAN:Generative Adversarial Network),其能提高生成图像的清晰度;特别是2017年Gulrajani 等[4]提出ImprovedGAN,对GAN 网络进行结构更改和训练,主要集中于半监督学习和更好的图像生成㊂Isola 等[5]提出 Pix2pix”网络模型,其要求图片必须成对;Zhu 等[6]提出CycleGAN,使输入图像在不配对的情况下生成不同风格的图像,完成高质量的风格传递任务㊂利用生成对抗网络进行人脸素描合成的研究已成为计算机视觉研究的热点[7]㊂笔者使用CycleGAN 网络框架应用于人脸素描合成,实验得到更加优质的素描图片㊂首先,以CycleGAN 网络架构为基础网络,构建一个多尺度特征合成的CycleGAN 实现人脸素描合成,基于U⁃Net++结构优势,使用VGG16模块[8]对U⁃Net++网络[9]结构进行改进,生成器的解码器端利用图像高级特征指导低级特征的特点,在解码器端的每层增加密集跳跃连接,增强对特征图像的提取能力,能生成高质量的图像㊂其次,在生成器中解码器端下采样的过程中添加通道注意力和空间注意力机制组成的特征增强模块(FEM:Feature Enhancement Module)㊂最后,为使生成器能合理的分摊图片低频信息和高频信息的像素权重,在生成器的框架中加入像素注意力模块㊂在CFUS 和CFUSF 数据集上的实验结果表明,与现有的一些经典方法对比,笔者的研究结果在主观视觉上,使素描图像的细节和表情纹理表现更加突出,图像边界更加清晰;在4种客观评价指标上,笔者方法在人脸素描合成上取得最好的效果㊂1 相关工作1.1 循环生成对抗网络2017年,Zhu 等[6]首次提出CycleGAN,其整体模型如图1a 所示,总网络包括两个生成器网络G X 和G Y ,以及两个鉴别器网络D X 和D Y ㊂其训练过程相当于生成器G 与鉴别器D 的相互博弈,生成器伪造的样本越来越逼真,鉴别器的鉴别技术越来越强,直到鉴别器D 分辨不出生成的素描图是真实的人脸素描还是人脸图片风格迁移后的素描,对抗过程达到平衡㊂在网络模型结构中,笔者定义两个相同的PatchGAN 结构[5]的鉴别器,结构如图1b 所示㊂鉴别器采用1组卷积层+正则化+Leaky ReLU 激活函数形式和5组卷积层+谱归一化+Leaky Relu 激活函数形式㊂X ㊁Y 分别表示人脸和素描图像组成的数据集㊂图1 循环生成对抗网络模型Fig.1 Model of cycle⁃generative adversarial networks 1.2 注意力模块由于目前的网络结构在图像特征的提取过程中存在均匀分布的特点,因此Xu 等[10]提出通道注意力模块,提高了网络对有意义的特征信息的选择能力㊂其原理是采用池化操作,进行高频特征提取,从而提高网络对有用信息的关注㊂通道注意力和空间注意力结构如图2a 和图2b 所示㊂77第1期葛延良,等:基于循环生成对抗网络的人脸素描合成网络设计图2 注意力模块Fig.2 Attention block structure 1.3 像素注意力机制人脸照片的高频信息和低频信息的分布是不均匀的,使网络能合理分摊图像特征低频信息和高频信息的像素权重,朱海琦等[11]采用一种像素注意力机制更加关注高频信息,结构如图3所示㊂图3 像素注意力机制模块Fig.3 Pixel attention mechanism block 2 改进后的生成器网络结构2.1 特征增强模块在生成器中设计由一个通道注意力和一个空间注意力级联组成的特征增强模块,以融合多层次交叉模态特征[12],以增强网络对图像特征的兼容性,提高图像高频信息的提取㊂其结构如图4所示㊂图4 特征增强模块Fig.4 Feature enhancement module 在网络中输入和输出的通道数不会发生改变,特征图通过通道注意力进行全局平均和全局最大池化学习对各通道的依赖程度,随后在把空间域的信息做对应的空间变换,增加特征信息的多样性的同时也提高了对高频图像特征信息的提取㊂具体做法如下,以F 表示输入的特征图,首先将特征图在空间维度上进行压缩,通过利用平均池化和最大池化实现特征提取上的相互补充,通过两个池化函数后可得到两个一维矢量㊂然后再通过全87吉林大学学报(信息科学版)第41卷局平均池化以特征图为单位进行特征均值提取,使网络对特征图的每个像素点都有反馈㊂而全局最大池化也为全局平均池化的一个补充,弥补了在进行梯度反向传播计算时,只有特征图中响应最大的地方才有梯度反馈的特性㊂F c avg 和F c max 分别代表经过全局最大池化和全局平均池化计算后的特征图,R 0和R 1代表多层感知模型中的两层参数层,感知模型中R 0和R 1之间特征需要使用ReLU 作为激活函数进行非线性网络加深,σ表示激活函数,通过通道注意力后得到的权重特征图M C (F )公式如下:M C (F )=σ(R 1(R 0(F c avg ))+R 1(R 0(F c avg )))㊂(1) 特征图在通道上形成注意模型,为使输入的特征图在空间层面上的部分得到更高的权重倾斜,所以在通道层面上通过使用平均池化和最大池化对输入特征图进行压缩操作,对输入特征F c 分别在通道维度上做平均和最大值采样操作,得到了两个二维的特征图,然后在通道维度叠加在一起得到一个通道数为2的特征图;最后为保证得到的特征图在空间维度上与输入的特征图一致,使用一个包含单个7×7卷积核的隐藏层对其进行卷积操作,如图3㊁图4下部分网络所示㊂这部分卷积层之间采用Sigmoid 激活函数,用μ表示,该特征图经过平均池化操作后定义为F s avg ∈R 1×H ×W ;经过最大池化操作后定义为F s max ∈R 1×H ×W ,F s max 通过空间注意力机制后权重特征图如下:M S (F )=μ(f 7×7([F s avg ;F s max ]))㊂(2)2.2 生成器设计笔者以VGG16模块[8]改进U⁃Net++的结构作为生成器,X (i ,m )表示位于U⁃Net++网络层不同位置的VGG16模块,其中i 表示模块位于第i 行,m 表示模块位于第m 列㊂首先对U⁃Net++结构网络层连接方式进行改进,网络结构解码器端利用高级特征指导低级特征的特点,在解码器端的每层增加密集跳跃连接,增强对特征图像的提取能力㊂实现方式如图5所示,解码器端的X (1,5)与X (3,3),X (4,2),X (5,1)模块进行密集跳跃连接;同理X (2,4)与X (4,2),X (5,1);X (3,3)与X (5,1)模块都采用密集跳跃连接的方式,使U⁃Net++结构的左右两端形成不对称的跳连方式,以对图像的特征信息进行多次复用和提取㊂图5 改进后生成器网络结构Fig.5 Improved generator network structure基于U⁃Net++的结构,为提高网络模型对高频信息的提取,在解码器端下采样的过程中X (4,1)到X (5,1)模块之间设计特征增强模块㊂实现方法是使用通道注意力和空间注意力级联融合多层次交叉模态特征,在特征输入的每个通道里采用全局平均池化和全局最大池化进行并联,以不同的权重值对通道里的特征进行特征提取,多尺度的进行特征提取㊂使用通过简单的卷积层[13]增强多层次深度特征和对比[14]改进深度图㊂并在通道维度上进行特征聚合,最后通过Sigmoid 函数激活;空间维度上采用最大池化和平均池化进行多尺度特征聚合㊂该方法的目的就是网络在保留多尺度信息的同时,有效提高网络多97第1期葛延良,等:基于循环生成对抗网络的人脸素描合成网络设计08吉林大学学报(信息科学版)第41卷模态特征兼容性㊂FEM不仅改善多模态图像特征的匹配性,并从图像特征中提取有用信息,还降低了低质量图像特征的冗余和噪声㊂图像信息的提取集中在第5层的X(5,1)模块,使X(5,1)和X(1,5)模块进行级联操作,在该过程中添加像素注意力模块,通过网络结构最后输出为X(1,5)模块,使生成器对像素低频信息和高频信息的像素权重的处理能合理的分摊,提高网络浅层特征利用率及深度特征的兼容性㊂2.3 损失函数CycleGAN学习从X到Y的映射,如果映射关系设置为G,则学习到的图像就是G X,然后使用鉴别器判断是否是真实图像,从而形成生成对抗网络㊂其损失函数如下:L GAN(G X,D Y)=E Y[log D Y(y)]+E X[log(1-D Y(G X(x)))],(3)其中G X计划生成与目标域中的图像完全无法区分的假图像G X(x),而D Y试图区分真假图像㊂对映射函数G Y:Y→X和鉴别器D X,笔者定义一个类似的对抗性损失:L GAN(G Y,D X)㊂基于CycleGAN网络中两个GAN网络的对称性,所有X都可以由G映射到Y空间的图像上,反之亦然㊂所以为不使损失无效,笔者不能直接使用这个损失进行训练㊂基于这种情况,定义一种损失函数,其假定生成的图像可被合成回原域㊂对X域的像,笔者训练目的X→G X(x)→G Y(G X(x))≈X;对Y域的像,笔者训练的目的是Y→G Y(y)→G X(G Y(y))≈Y㊂CycleGAN模型的关键是使用循环一致性损失的监督㊂其损失函数为L cyc(G X,G Y)=E x[G Y(G X(x))-x1]+E y[G X(G Y(y))-y1]㊂(4) CycleGAN网络结构还加入本体映射损失(Identity Loss)㊂CycleGAN使用Identity loss的目的是在迁移过程中保持原色调,约束生成器更加接近真映射,则有L il(G X,G Y)=E x[G X(x)-x1]+E y[G Y(y)-y1],(5)所以在整个CycleGAN网络中的总目标损失函数为L(G X,G Y,D X,D Y)=L GAN X+L GAN Y+λcyc L cyc+λil L il,(6)其中λcyc和λi l表示控制循环损失和本体映射损失的参数㊂3 实验与结果为验证笔者人脸素描合成框架性能,在CUFS[15]和CUFSF[16]数据集上进行训练㊂CUFS数据集中包含606对彩色人脸照片和素描,包括来自香港中文大学学生数据库的188张人脸,其中88张用于训练, 100张用于测试;来自AR数据库的123张人脸,60张用于训练,63张用于测试;还有XM2VTS数据库中的295张人脸,其中150对用于训练,145对用于测试㊂CUFSF数据集分别包括1194对黑白人脸照片和素描,其中挑选400对用于训练,694对用于测试,因为草图更加的抽象化和与原始照片没有很好的对齐增加了实验的挑战性㊂程序在pytorch1.9环境下运行,实验设备是一台Ubuntu操作系统计算机,一块NVIDIA1080Ti显卡㊂3.1 参数设置由于受实验设备条件限制,在实验过程中训练集的人脸图像被裁剪成256×256像素大小,batch_size 为5,整个实验迭代次数为200次,生成器和鉴别器使用Adam算法进行优化,优化学习率为0.0002㊂3.2 结果与分析为证明本实验对人脸素描合成的有效性,在相同的硬件环境配置下,笔者对比FCN(Fully Convolutional Networks for Semantic Segmentation)算法[17],LIE算法[18],MRF(Marcov Randon Field)算法[19],SSD(Single Shot MultiBox Detector)算法[19],GAN(Generative Adversarial Network)算法[3]以及CGAN(Conditional Generative Adversarial Network)算法[21]和笔者方法(Ours)在CUFS和CUFSF数据集上生成的人脸素描图像㊂在客观评价指标上,笔者采用的图像质量评估指标为VIF(Visual Information Fidelity)㊁FSIM(Feature Similarity Index Measure)㊁UIQI(Universal Image Quality Index)和Scoot Measure㊂分别为视觉信息保真度VIF [22],其主要适用于灰度图像,在本文中主要用于测试生成的素描图与剪裁后的艺术家绘画的素描图进行对比计算,以衡量待评图像的质量优劣㊂特征相似指数FSIM 是在结构相似指数上的延伸,FSIM 算法[23]能根据一张图片中不同的像素所占的比重不同而给予合适的权重指数㊂UIQI [24]是为各种图像处理应用而设计的,其存在的意义是可对不同类型的图像失真进行比较㊂笔者还使用结构共现纹理的测试(Scoot Measure),其针对类视觉系统具有很强的快速评估两张面部素描之间的感知相似性的能力㊂ 空间结构”和 共线纹理”是面部素描合成中两个普遍适用的感知特征,结构共线纹理测试同时考虑 空间结构”和 共线纹理”[25⁃26]㊂这些指标越接近1,说明与Target 相似度越高,重构的人脸素描与手绘素描之间的差异越小㊂对不同网络在CUFS 数据集和CUFSF 数据集生成的素描图像进行评估结果如表1㊁表2所示㊂表1 各网络架构在CUFS 数据集上素描图评估结果对比Tab.1 Comparison of sketch evaluation results of each network architecture on CUFS test setMethod FCN LLE MRF SSD GAN CGAN OursVIF 0.05990.06200.05370.06580.06450.06720.0696FSIM 0.64600.70410.70470.69380.71480.75820.7814UIQI 0.95980.95450.94850.96010.95870.97790.9850Scoot 0.45310.48010.51520.45000.48410.70740.7552表2 各网络架构在CUFSF 数据集上素描图评估结果对比Tab.2 Comparison of sketch evaluation results of each network architecture on CUFSF test set MethodFCN LLE MRF SSD GAN CGAN Ours VIF 0.06240.06410.05390.06620.06530.06710.0701FSIM0.63620.70180.70390.69540.71510.75910.7892UIQI 0.96220.95450.94860.95290.95870.97840.9886Scoot 0.45420.47690.51510.45470.48370.71760.7763 从表1中数据看出,笔者方法相较于FCN,LLE,MRF,SSD,以及GAN 和CGAN 训练得到的人脸素描图像,其各项指标均有提高㊂笔者方法和效果相对较好的CGAN 网络训练得到的人脸素描图像对比,其VIF 和FSIM 值分别提高0.0028和0.0232,UIQI 和Scoot Measure 分别提高0.0071和0.0478;从表2中数据看出,笔者方法和效果相对较好的CGAN 网络训练得到的人脸素描图像对比,其VIF 和FSIM 值分别提高0.0030和0.0301,UIQI 和Scoot Measure 分别提高0.0102和0.0587㊂由此证明笔者算法在人脸素描图像重建的有效性㊂各算法测试的视觉效果如图6㊁图7所示㊂图6 在CUFS 数据集上各算法的视觉对比结果Fig.6 The visual comparison results of each algorithm on CUFS test set 18第1期葛延良,等:基于循环生成对抗网络的人脸素描合成网络设计图7 在CUFSF 数据集上各算法的视觉对比结果Fig.7 The visual comparison results of each algorithm on CUFSF test set从主观视觉上对比,基于笔者改进的CycleGAN 生成的素描图案在图像纹理㊁阴影㊁遮挡㊁脸部线条和脸部像素分布方面更加的清晰㊂如图6所示,各算法在CUFS 数据集上测试生成的人脸素描图片,不同算法的重建素描效果图在主观视觉上,FCN,LLE,MRF 和SSD 网络重建出的图像都存在不同程度的失真和扭曲,GAN 和CGAN 重建出的素描图的面部表情稍微失真但整体轮廓更加清晰,CGAN 和笔者算法重建出的效果较好于前5种算法,但笔者算法重建出的人脸素描线条含有更多的细节信息,发丝和人眼轮廓更加清晰㊂当人脸图片换成难度更大的灰度图片时,如图7所示,各算法在CUFSF 数据集上测试生成的人脸素描图片,从主观视觉上看,在画像师画出的素描图像更抽象的条件下,FCN,LLE,MRF 和SSD 重建出的素描图像失真更严重,脸部轮廓模糊㊂笔者方法与其他网络相比,生成的人脸素描图案的脸部轮廓更清晰,而且能显示更多的脸部细节纹理,脸部线条更加流畅,五官表现清楚,更好的突出表情纹理㊂综合图6和图7,笔者的网络架构重建出的素描图像与其他网络重建的图像相比,脸部纹理细节更加丰富,能恢复出更好的轮廓边缘信息,在显示图像细节和纹理方面更具有表现性㊂综上所述,笔者网络重建的素描图像取得最好的视觉抽象效果,在感官视觉和客观指标上均优于现有的几种经典算法㊂4 结 语笔者针对在人脸素描合成过程中对特征信息的提取不充分,以及对各个特征提取通道的比重没有倾斜和丢失细节信息的问题,结合CycleGAN 网络进行研究,用于人脸素描合成的过程中对生成器的内部连接方式进行改进,以及设计特征增强模块和添加注意力机制㊂通过该网络在CUFS 和CUFSF 公共人脸数据集上进行训练,并与其他经典算法进行实验对比,笔者方法不仅主观上重建出较好的视觉效果,证明笔者算法较为成功地解决了上述问题,从而重建出逼真的细节纹理信息㊁几何特征和边缘特征;在客观评价指标上,取得了较高的FSIM 和UIQI 值以及Scoot 值,有力的证明笔者方法在人脸素描合成方面的有效性㊂未来的工作将主要研究如何设计最新的生成对抗网络得到更加优质的人脸素描合成结果㊂参考文献:[1]王楠楠.异质人脸图像合成及其应用研究[D].西安:西安电子科技大学通信工程学院,2015.WANG N N.Heterogeneous Face Image Synthesis and Its Application [D].Xi’an:School of Communication Engineering,Xi’an University of Electronic Science and Technology,2015.[2]姚赛赛.素描人脸合成与识别研究[D].济南:山东大学控制科学与工程学院,2018.28吉林大学学报(信息科学版)第41卷YAO S S.Research on Sketch Face Synthesis and Recognition [D].Jinan:School of Control Sceince and Engineering,Shandong University,2018.[3]GOODFELLOW I,POUGET⁃ABADIE J,MIRZA M,et al.Generative Adversarial Nets [J].Advances in Neural InformationProcessing Systems,2014,27.[4]GULRAJANI I,AHMED F,ARJOVSKY M,et al.Improved Training of Wasserstein Gans [P].arXiv Preprint arXiv:1704.00028,2017.[5]ISOLA P,ZHU J Y,ZHOU T,et al.Image⁃to⁃Image Translation with Conditional Adversarial Networks [C]∥Proceedings ofthe IEEE Conference on Computer Vision and Pattern Recognition.[S.l.]:IEEE,2017:1125⁃1134.[6]ZHU J Y,PARK T,ISOLA P,et al.Unpaired Image⁃to⁃Image Translation Using Cycle⁃Consistent Adversarial Networks [C]∥Proceedings of the IEEE International Conference on Computer Vision.[S.l.]:IEEE,2017:2223⁃2232.[7]BI H,LIU Z,YANG L,et al.Face Sketch Synthesis:A Survey [J].Multimedia Tools and Applications,2021,80(12):18007⁃18026.[8]PARDEDE J,SITOHANG B,AKBAR S,et al.Implementation of Transfer Learning Using VGG16on Fruit RipenessDetection [J].International Journal of Intelligent Systems &Applications,2021,13(2):127⁃134.[9]MICALLEF N,SEYCHELL D,BAJADA C J.Exploring the U⁃Net++Model for Automatic Brain Tumor Segmentation [J].IEEE Access,2021,9:125523⁃125539.[10]XU X,WANG J,ZHONG B,et al.Deep Learning⁃Based Tool Wear Prediction and Its Application for Machining ProcessUsing Multi⁃Scale Feature Fusion and Channel Attention Mechanism [J].Measurement,2021,177:109254.[11]朱海琦,李宏,李定文,等.基于生成对抗网络的单图像超分辨率重建[J].吉林大学学报(理学版),2021,59(6):1491⁃1498.ZHU H Q,LI H,LI D W,et al.Single Image Super⁃Resolution Reconstruction Based on Generative Adversarial Network [J].Journal of Jilin University (Science Edition),2021,59(6):1491⁃1498.[12]FAN D P,ZHAI Y,BORJI A,et al.BBS⁃Net:RGB⁃D Salient Object Detection with a Bifurcated Backbone Strategy Network[C]∥European Conference on Computer Vision.Cham:Springer,2020:275⁃292.[13]PIAO Y,JI W,LI J,et al.Depth⁃Induced Multi⁃Scale Recurrent Attention Network for Saliency Detection [C]∥Proceedingsof the IEEE /CVF International Conference on Computer Vision.[S.l.]:IEEE,2019:7254⁃7263.[14]ZHAO J X,CAO Y,FAN D P,et al.Contrast Prior and Fluid Pyramid Integration for RGBD Salient Object Detection [C]∥Proceedings of the IEEE /CVF Conference on Computer Vision and Pattern Recognition.[S.l.]:IEEE,2019:3927⁃3936.[15]WANG X,TANG X.Face Photo⁃Sketch Synthesis and Recognition [J].IEEE Transactions on Pattern Analysis and MachineIntelligence,2008,31(11):1955⁃1967.[16]ZHANG W,WANG X,TANG X.Coupled Information⁃Theoretic Encoding for Face Photo⁃Sketch Recognition [C]∥CVPR2011.[S.l.]:IEEE,2011:513⁃520.[17]IJJEH A A,ULLAH S,KUDELA P.Full Wavefield Processing by Using FCN for Delamination Detection [J].MechanicalSystems and Signal Processing,2021,153:107537.[18]LIU Q,TANG X,JIN H,et al.A Nonlinear Approach for Face Sketch Synthesis and Recognition [C]∥2005IEEE ComputerSociety Conference on Computer Vision and Pattern Recognition (CVPR’05).[S.l.]:IEEE,2005,1:1005⁃1010.[19]LI C,WAND M.Precomputed Real⁃Time Texture Synthesis with Markovian Generative Adversarial Networks [C]∥EuropeanConference on Computer Vision.Cham:Springer,2016:702⁃716.[20]SONG Y,BAO L,YANG Q,et al.Real⁃Time Exemplar⁃Based Face Sketch Synthesis [C]∥European Conference onComputer Vision.Cham:Springer,2014:800⁃813.[21]BI H,LI N,GUAN H,et al.A Multi⁃Scale Conditional Generative Adversarial Network for Face Sketch Synthesis [C]∥2019IEEE International Conference on Image Processing (ICIP).[S.l.]:IEEE,2019:3876⁃3880.[22]ZHANG L,LIN L,WU X,et al.End⁃To⁃End Photo⁃Sketch Generation via Fully Convolutional Representation Learning [C]∥Proceedings of the 5th ACM on International Conference on Multimedia Retrieval.[S.l.]:ACM,2015:627⁃634.[23]ZHANG L,ZHANG L,MOU X,et al.FSIM:A Feature Similarity Index for Image Quality Assessment [J].IEEETransactions on Image Processing,2011,20(8):2378⁃2386.[24]ZHOU W,BOVIK A C.A Universal Image Quality Index [J].IEEE Signal Processing Letters,2002,9(3):81⁃84.[25]MIRZA M,OSINDERO S.Conditional Generative Adversarial Nets [J].Computer Science,2014(4):2672⁃268.[26]FAN D P,ZHANG S C,WU Y H,et al.Scoot:A Perceptual Metric for Facial Sketches [C]∥Proceedings of the IEEE /CVF International Conference on Computer Vision.[S.l.]:IEEE,2019:5612⁃5622.(责任编辑:刘东亮)38第1期葛延良,等:基于循环生成对抗网络的人脸素描合成网络设计。
第2期2022年3月现代教育科学ModernEducationScienceNo 2Mar.2022[收稿日期]2021-10-10[基金项目]吉林大学就业创业工作研究课题“生涯规划意识下学生就业发展指导研究”(项目编号:JY2020023);吉林省教育科学“十三五”规划课题“研究生创业教育现状及其优化对策研究”(项目编号:ZD17002);吉林省社会科学基金项目“以质量为导向的学术评价制度供给与优化研究”(项目编号:2019B100)。
[作者简介]刘岳(1985-),男,辽宁锦州人,吉林大学学生就业创业指导与服务中心助理研究员,主要研究方向:大学生就业指导研究。
侯佳琳(1997-),女,辽宁朝阳人,吉林大学高等教育研究所硕士研究生;主要研究方向:大学生职业生涯规划研究。
任增元(1980-),男,辽宁朝阳人,吉林大学高等教育研究所教授;主要研究方向:高等教育理论、高等教育管理。
我国大学生职业生涯规划理论基础及当代实践探索刘 岳,侯佳琳,任增元(吉林大学,吉林长春 130000) [摘 要]经济社会发展迅速,产业结构转型升级。
受人才需求层次持续提升的要求和长期以来结构性就业问题的鞭策,构建我国当代大学生职业生涯规划体系是大势所趋,更是高校建设的内在需求。
当前我国大学生职业生涯规划在工作理念、方式方法上相对滞后,辅导内容、指导对象范围不足。
对此,通过梳理我国职业生涯规划理论基础并对当前工作缺陷进行反思,提出面向新时代的大学生职业生涯规划工作要求。
其中包含借鉴国际职业生涯理论和实践成果,设立生涯化、多样化的职业生涯规划目标,运用灵活化、专业化的指导方法,建立系统化、全员化的高校职业生涯规划辅导体系,引航我国大学生职业生涯规划实践的当代探索。
[关键词]大学生;职业生涯规划;就业;职业生涯规划理论; [中图分类号]G645 [文献标识码]A [文章编号]1005-5843(2022)02-0054-06 [DOI]10 13980/j cnki xdjykx 2022 02 010近年,我国高等教育在数量和质量上都有了跨越式的进步,培育的大批高层次人才为国家各项事业做出了重要贡献。
Tourism Economy旅游经济吉林省全域旅游发展现状与策略探究浦 枫 李 俊*(吉林外国语大学国际文化旅游学院,吉林长春 130117)摘 要:全域旅游这一概念是我国步入社会经济发展新常态以来,能够推动旅游业实现可持续发展的一项核心战略。
笔者在查阅相关文献和梳理全域旅游相关概念基础上,归纳出吉林省全域旅游发展基本概况和治理现状。
通过研究发现,吉林省具备发展全域旅游的多种优势,如区位、政策、旅游资源等条件,但在发展过程中还存在着全域旅游产业融合及创新业态有待培育、全域旅游宣传营销力度有待加大、全域旅游专业人才匮乏等一系列问题。
文章立足于吉林省全域旅游治理的实际情况提出相应的建议,希望为吉林省全域旅游发展提供有益参考。
关键词:全域旅游;产业融合;可持续发展;吉林省中图分类号:F592.7 文献标识码:A引言2015年8月,原国家旅游局发布了《关于开展“国家全域旅游示范区”创建工作的通知》,标志着全域旅游这一理念在我国从理论阶段迈向实践探索。
2016年,原国家旅游局在全国旅游工作会议上,更是对全域旅游这一发展理念作出了更为全面和清晰的阐释,指出全域旅游的推广不仅能够实现旅游区域内资源的有机整合和产业之间的融合发展,还能推动景区内外的一体化综合发展,并实现各主体间的共建共享,最终实现以旅游业助推经济社会协调发展。
随着全域旅游的概念逐渐渗入不同的领域与行业,旅游业在我国经济支柱产业中占据着重要的地位,在新时代经济社会发展过程中扮演着举足轻重的角色,它是我国旅游业发展到一定阶段的必然产物,也是我国旅游业发展、改革、创新、转型升级的必然要求。
一、全域旅游的概念全域旅游是新时代背景下,传统旅游业进行转型升级后的新发展模式,是指在一定的区域范围内将旅游作为主导产业,对旅游区域内的生态环境、公共服务、文明素质、体制机制、政策法规等所涉及的各方面、各主体进行相应的资源整合和优化升级,从而真正实现景点景区内外的一体化综合发展。