技术宅开始用人工智能伪造各种女明星的AV简直细思极恐…
- 格式:docx
- 大小:148.71 KB
- 文档页数:6
深度伪造技术滥用的例子
深度伪造技术(Deepfake)是一种利用人工智能技术来制作逼
真的虚假视频、音频和图像的技术。
虽然这种技术在一些领域有着
广泛的应用,比如电影特效和艺术创作,但是它也经常被滥用,给
社会带来了一系列问题。
最近,深度伪造技术的滥用在政治和社交领域引起了广泛关注。
有人利用深度伪造技术制作虚假的政治演讲视频,以此来煽动仇恨
或误导公众。
这种行为不仅会破坏公众对政治信息的信任,还可能
导致社会动荡和政治混乱。
另外,深度伪造技术还被用来制作色情视频,将普通人的脸部
替换成色情演员的脸部,以此来进行网络性骚扰或者敲诈勒索。
这
种行为不仅侵犯了个人隐私,还可能给受害者带来严重的心理创伤。
除此之外,深度伪造技术还可能被用来制作虚假的新闻报道或
者破坏名人的形象。
这种行为会对公众的信息获取和社会秩序造成
严重影响。
因此,深度伪造技术的滥用已经成为一个亟待解决的社会问题。
政府、科技公司和社会组织需要加强监管和技术防范措施,以防止深度伪造技术的滥用,保护公众的利益和社会稳定。
同时,公众也需要提高对深度伪造技术的警惕,不轻易相信通过社交媒体传播的视频和图片,以免受到虚假信息的误导。
深度伪造技术(Deepfakes)的伦理与法律问题在数字时代,深度伪造技术(Deepfakes)以其惊人的逼真度和易于操作的特性,迅速成为公众讨论的焦点。
这项技术通过人工智能算法,能够创建或操纵视频和音频,使得普通人看起来像是在说或做他们从未做过的事情。
虽然Deepfakes 在娱乐和教育领域有着潜在的积极应用,但其伦理和法律问题同样不容忽视。
首先,深度伪造技术对个人隐私和名誉权构成了严重威胁。
一旦技术落入不法之徒手中,他们可以轻易地制造出虚假的丑闻或诽谤,对受害者造成不可估量的损害。
这种技术的使用可能会导致社会信任的瓦解,因为人们越来越难以区分真实与虚构。
其次,Deepfakes在政治领域的影响尤为深远。
政治候选人的虚假言论或行为可能会误导选民,影响选举结果。
此外,这种技术还可能被用于制造虚假新闻,进一步加剧了信息不对称和误导性信息的传播。
法律层面上,目前对于Deepfakes的监管尚不完善。
虽然一些国家和地区已经开始制定相关法律,以打击利用Deepfakes进行的欺诈和诽谤行为,但这些法律往往落后于技术的发展。
此外,跨国界的法律执行也是一个挑战,因为Deepfakes的制作和传播往往不受单一国家法律的约束。
为了应对这些挑战,需要多方面的努力。
首先,技术社区需要开发更先进的工具来检测和验证Deepfakes,以减少其对社会的负面影响。
其次,法律制定者需要与技术专家合作,制定更全面和前瞻性的法律框架,以保护公民的权利并确保技术的正当使用。
最后,公众教育也是关键。
提高公众对于Deepfakes的认识,教育他们如何识别和应对虚假信息,是构建更加健康和安全的数字环境的重要一步。
总之,深度伪造技术的发展带来了一系列复杂的伦理和法律问题。
只有通过技术、法律和社会的共同努力,我们才能确保这项技术的发展不会对社会造成不可逆转的伤害。
最近,AI 换脸应用ZAO 的出现,引起了轩然大波。
ZAO 的最大卖点在于可以将视频中的人脸,通过AI 算法PS 成另一个人的相貌。
只需要把照片上传到ZAO 当中,就能够将视频P 成相应的脸,可谓是操作简单、效果明了。
也因为如此,ZAO 一出现就引来了人们的激烈讨论,毕竟谁也保不准自己会不会被P 进小电影中,变成奇怪剧情的主人公。
虽然ZAO 再次点燃了AI 换脸技术的讨论热潮,但是AI 换脸引发争议,已经不是什么新鲜事。
早在ZAO 上架之前,Deep Fakes 就已经将AI 换脸的恐怖之处刻入人心。
为何AI 换脸会引起如此程度的惊恐?AI 换脸的风行意味着什么?今天就一起来谈谈相关话题吧。
AI 换脸技术是如何走向泛滥的ZAO 将AI 换脸技术再次放置到了聚光灯下,但这并非是AI 换脸首次走上历史舞台。
早在2017年底,国外论坛就已经出现了ID 为“deepfakes ”的用户,发布了通过机器学习来更换视频人脸的AI 算法。
不过当时该技术的使用门槛还比较高,需要编译代码等操作;而在数个月后,使用管理DeepFakes 技术的简易版AI 换脸工具FakeApp 出现了,就算是普通用户,也能够顺利操作。
FakeApp 令AI 换脸的使用门槛大幅下降,不过它还是需要一定的准备工作。
首先它需要安装额外的运行库,其次它对硬件有需求,需要高性能显卡参与运算,其中对N 卡的兼容最好。
而FakeApp 还需要较新版的Windows 10系统才可以安装,运行起来还得等待一段时间———过程越久效果越好,毕竟机器学习还是需要足够的时长和样本,最后,FakeApp 就可以生成几乎以假乱真的AI 换脸视频了。
FakeApp 的出现令AI 换脸视频一度犹如黄河泛滥一发不可收拾,不少名人都深受其害。
例如大名鼎鼎的“神奇女郎”,就莫名其妙成为了色情片里的主演;又例如国内很多人都印象深刻的杨幂版小龙女,令人惊叹演员换脸的奇效。
AI 换脸目前已经在网络上泛滥到怎样的一种程度呢?我们从几个细节就可以看到。
文化娱乐行业中虚拟模特技术的使用教程随着科技的不断发展,文化娱乐行业也开始出现了一种新的创新技术——虚拟模特技术。
虚拟模特指的是利用计算机生成的虚拟人物,他们可以通过动画、声音和表情来与观众互动。
这项技术在文化娱乐领域中得到了广泛应用,对于提升娱乐体验、拓展市场以及节约成本都具有重要意义。
本文将为您介绍虚拟模特技术的使用教程,帮助您了解如何应用这项技术。
第一步:了解虚拟模特技术的基本原理虚拟模特技术通过使用三维建模制作出逼真的虚拟人物,并通过动作捕捉技术对其进行控制。
首先,需要进行人物角色的设计和建模,包括身体、面部和服装等方面的细节。
然后,通过对真人演员的动作捕捉进行录制,将演员的动作转化为虚拟人物的动作。
最后,通过渲染技术将虚拟人物的模型与环境进行融合,使其看起来更加逼真。
第二步:选择合适的虚拟模特软件在使用虚拟模特技术之前,您需要选择一款适合自己需求的虚拟模特软件。
目前市场上有许多虚拟模特软件可供选择,例如Unreal Engine、Unity、iClone等。
这些软件都拥有丰富的功能和易于使用的界面,可以满足您在文化娱乐行业中的需求。
第三步:创建虚拟模特角色在选择了合适的虚拟模特软件之后,您需要开始创建虚拟模特角色。
首先,确定虚拟模特的外貌特征,包括肤色、发型、身高、体型等方面。
然后,使用软件提供的建模工具进行建模,根据设计稿或者参考照片进行细节设计。
在创建角色时,还可以对衣装进行设计和定制,以满足特定的需求。
第四步:录制虚拟模特的动作虚拟模特的动作是通过动作捕捉技术进行录制的。
动作捕捉设备通常包括传感器和摄像头,可以捕捉到演员的动作,并将其转化为虚拟模特的动作。
在录制动作时,需要确保摄像头和传感器的设置正确,并在合适的环境中进行。
同时,演员需要按照预定动作进行表演,以保证录制到的动作符合预期效果。
第五步:编辑和渲染虚拟模特录制完虚拟模特的动作之后,您需要将录制到的动作进行编辑,以使其适应特定的场景和需求。
深度伪造技术(Deepfakes)的伦理与法律问题在当今数字化时代,深度伪造技术(Deepfakes)正逐渐成为人们关注的焦点。
这项技术利用人工智能(AI)生成逼真的图像、视频和音频,使得伪造内容难以区分于真实内容。
然而,随着技术的发展,深度伪造技术也引发了众多伦理和法律问题。
首先,深度伪造技术侵犯了个人的隐私权和名誉权。
通过这项技术,不法分子可以轻易地将他人的形象和声音用于不法目的,如制造虚假新闻、诽谤和诈骗。
这不仅损害了当事人的声誉,还可能导致严重的社会影响。
其次,深度伪造技术对新闻真实性构成了巨大挑战。
在信息传播迅速的今天,虚假新闻的传播速度往往超过真实新闻。
这不仅误导了公众,还可能引发社会恐慌和不稳定。
因此,如何确保新闻的真实性,成为了一个亟待解决的问题。
此外,深度伪造技术还可能被用于政治领域。
政治家和政府官员的形象可能被用于制造虚假的政治宣传,从而影响选民的判断和决策。
这不仅损害了民主制度的公正性,还可能导致政治动荡。
为了应对深度伪造技术带来的伦理和法律问题,各国政府和国际组织已经开始采取行动。
一方面,加强对深度伪造技术的监管,限制其在不法领域的应用;另一方面,加强对公众的教育,提高他们识别虚假信息的能力。
同时,技术界也在努力开发新的技术手段,以识别和抵制深度伪造内容。
例如,通过分析图像和视频中的细微特征,以及利用区块链技术确保信息的真实性,可以有效地识别和防范深度伪造技术。
总之,深度伪造技术的发展给社会带来了巨大的挑战。
我们需要在技术、法律和伦理层面共同努力,以确保这项技术的发展不会对社会造成负面影响。
只有这样,我们才能在保护个人权益和维护社会稳定的同时,充分发挥深度伪造技术的潜力。
伦理纠恶虚拟现实技术在色情行业中的应用引言虚拟现实(Virtual Reality,VR)技术是一种通过电子设备模拟人类感官,并创造出一种类似于现实世界的环境和场景的技术。
虚拟现实技术的应用范围广泛,涵盖了教育、医疗、娱乐等众多领域。
但与此同时,虚拟现实技术也在色情行业中引起了极大争议。
本文将探讨伦理纠恶虚拟现实技术在色情行业中的应用,并分析其中的道德和社会问题。
虚拟现实技术在色情行业中的应用虚拟现实技术作为一种全新的媒介形式,正在逐渐渗透到各个领域,包括色情行业。
虚拟现实技术使得用户能够身临其境地体验色情内容,提供了超越传统观看的参与感和真实感。
以下是虚拟现实技术在色情行业中的几个应用场景:1. 虚拟现实成人娱乐场所虚拟现实技术让色情行业得以在物理空间之外创造出虚拟的成人娱乐场所。
用户可以通过戴上VR设备,进入一个完全虚拟的成人娱乐场所,与虚拟角色进行互动,并享受身临其境的色情体验。
这种形式的应用旨在提供一种安全、私密且交互性强的色情体验,同时减少了对现实环境和他人的依赖。
2. 虚拟现实色情内容制作虚拟现实技术使得色情内容制作能够更加真实、身临其境。
借助VR设备,制作人员可以模拟真实场景,并让用户参与其中,提供更加生动和刺激的色情体验。
这种制作方式可以满足用户对于个性化和自定义需求的追求,为用户创造出更加满足需求的色情体验。
3. 虚拟现实与色情互动设备结合虚拟现实技术与色情互动设备的结合,让用户能够更加身临其境地参与到色情互动中。
例如,通过戴上VR设备和配套的互动设备,用户可以与虚拟角色进行互动,并获得身体上的刺激,提供更加真实和满意的色情体验。
这种结合为用户提供了更加贴近真实体验的色情服务,但也带来了一定的道德和伦理问题。
道德和伦理问题伦理纠恶虚拟现实技术在色情行业中的应用,引发了许多道德和伦理问题。
以下是一些常见的问题:1. 道德底线的挑战虚拟现实技术在色情行业中的应用,会不可避免地挑战社会的道德底线。
基于人工智能的图像鉴黄与涉黄内容自动检测研究摘要:随着互联网技术的普及和发展,社交媒体平台、在线视频网站以及其他互联网应用中的大量图像和视频媒体内容给用户带来了巨大的方便和乐趣。
然而,也面临着恶意用户上传和传播涉黄色情内容的问题,对网络社会秩序和公共道德产生了不利影响。
鉴黄和涉黄内容的自动检测成为了重要的研究课题,传统的图像识别和过滤方法面临精度低和维护困难的问题。
因此,本文基于人工智能的技术和方法,研究了图像鉴黄与涉黄内容自动检测的相关技术和应用。
1. 引言互联网的迅猛发展给人们带来了便利和全球资源的共享,但也带来了一些不良现象,尤其是涉黄色情内容的广泛传播。
传统的人工审核方法在处理大量的图片和视频内容时显得效率低下且成本高昂。
因此,图像鉴黄与涉黄内容的自动检测成为了亟需解决的问题。
2. 图像鉴黄技术2.1 传统的图像鉴黄算法传统的图像鉴黄算法主要基于颜色特征、纹理特征和形状特征来识别涉黄色情内容。
其中,颜色特征是最常用的特征之一,因为色情图片通常具有特定的颜色分布。
纹理特征则通过分析图像的纹理疏密度来判断是否涉黄。
形状特征可以通过检测图像中的人体轮廓来判断图片的性暗示。
然而,这些传统方法往往对复杂的场景、干扰、遮挡等情况无法有效处理,导致鉴别率低且易受攻击。
2.2 基于深度学习的图像鉴黄算法随着深度学习在计算机视觉领域的快速发展,基于深度学习的图像鉴黄算法逐渐取代了传统方法。
深度学习模型如卷积神经网络(CNN)可以通过大量的标注数据学习到图像的高级特征,并具备更好的泛化能力。
通过构建一个大规模的图像鉴黄数据集,并利用深度学习模型对数据进行训练,可以得到更准确的鉴黄模型。
此外,迁移学习和增量学习可以帮助模型更好地适应新的鉴黄场景和样本。
3. 涉黄内容自动检测应用3.1 社交媒体平台社交媒体平台是涉黄色情内容传播的主要载体之一。
通过在社交媒体平台上使用图像鉴黄技术,可以自动过滤和删除包含涉黄内容的用户上传的图片和视频,有效减少色情信息的传播。
802023年7月点开直播间乍一看,卖货的竟是当红女星。
再定睛一看,“明星”其实是使用人工智能(A I)实时换脸技术的普通主播……近期,“AI换脸”的应用范围越来越广,但存在滥用之嫌,甚至有人利用A I换脸实施犯罪,“A I诈骗正在全国爆发”冲上微博热搜。
揭秘“换脸”骗局 “双刃剑”效应明显张嘴、摇头,摄像头捕捉到人的动作后,屏幕上原本静态的人像可以动起来,动作幅度和真人一致,还能眨眼和露齿微笑,仿真度颇高,几分钟内就能生成一段视频,脸还能被任意替换。
这就是“AI换脸”技术。
据了解,“AI换脸”背后采用的是深度合成技术,利用深度学习、虚拟现实等生成合成类算法,制作图像、音频、视频等信息,目前在社交、影视、广告、医疗等诸多领域不断深化应用,有较大的技术价值和商用潜力,不过也存在着一定的安全隐患,“双刃剑”效应明显。
全联并购公会信用管理委员会专家安光勇对表示,目前A I换脸技术主要通过深度学习和计算机视觉技术实现。
它使用了深度神经网络来分析和识别视频中的人脸,并将一个人的脸部特征映射到另一个人的脸上。
在微信视频中,犯罪分子可能会通过发送特制的视频或使用特定的换脸应用程序,将自己的脸替换为受害者的脸,以获取对方的信任并实施诈骗行为。
AI技术存在滥用风险 为规范人工智能发展,去年12月,《互联网信息服务深度合成管理规定》正式发布,明确了合成数据和技术管理规范。
其中提到:深度合成服务提供者对使用其服务生成或编辑的信息内容,应当添加不影响使用的标识。
提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能的服务的,应当进行显著标识,避免公众混淆或者误认。
近期,也有平台和企业发布了“关于人工智能生成内容的平台规范暨行业倡议”,明确禁止利用生成式人工智能技术创作、发布侵权内容,包括但不限于肖像权、知识产权等,一经发现,平台将严格处罚。
对于个人而言,除了在形形色色的“明星脸”中保持清醒,避免陷入虚假宣传,更重要的是面对花样翻新的A I诈骗,必须保持防范意识。
“深度伪造”技术能够实现“一键换脸”关注·本刊策划13滥用“深度伪造”的危害文·图/刘辉“事前规制”画“红线”今年3月,国家网信办和公安部依法约谈11家互联网企业,督促其加强对语音社交软件和涉及“深度伪造”技术的互联网新技术、新应用的安全评估,完善风险防控机制和措施,并对发现的安全隐患及时采取有效的整改措施。
不同于“事后监管”,此次安全评估和约谈给有关的互联网新技术、新应用提前画下“红线”。
“事前规制”有利于企业及时发现安全隐患,整改安全问题。
下一步,国家网信办、公安部将继续指导各地网信部门和公安机关,加大巡查检查力度,督促属地互联网企业严格遵守相关法律法规,积极主动尽到安全管理义务,切实履行企业主体责任,共同维护网络传播秩序,营造良好的网络生态。
这不是国家有关部门首次关注网络虚拟现实技术所引发的问题。
早在2019年12月,国家网信办、文化和旅游部、广播电视总局就联合印发了《网络音视频信息服务管理规定》(简称《规定》)。
《规定》中多次提及基于“深度学习”“虚拟现实”等新技术、新应用的音视频。
《规定》强调,网络音视频信息服务提供者和使用者,利用“深度学习”“虚拟现实”等新技术、新应用制作、发布、传播非真实音视频信息的,应当以显著方式予以标识,不得利用“深度学习”“虚拟现实”等新技术、新应用制作、发布、传播虚假新闻信息。
监管部门针对涉及“深度伪造”技术的新应用频频出手,让更多的公众意识到这一技术背后潜藏的安全隐患。
侵犯公民合法权益科学技术的发展必须坚持以人为本这一基本原则,一旦偏离这一主轴,就有可能陷入伦理危机,甚至是合法性危机。
就“深度伪造”技术而言,其滥用将对公民个人的合法权益产生不利影响,主要体现在以下几个方面:一是侵犯公民的隐私权。
在司法实践中,通过个案裁决的方式使得一些具体“深度伪造”技术可能被用于制作色情视频、虚假新闻、虚假广告等,再加上“后真相时代”的信息传播扭曲,这些有害信息将催生极大的社会风险,主要体现在三个方面:侵犯公民合法权益、损害企业商业信誉和威胁社会公共安全。
技术宅开始用人工智能
伪造各种女明星的A V 简直细思极恐…
Document number:BGCG-0857-BTDO-0089-2022
技术宅开始用人工智能伪造各种女明星的AV.. 简直细思极
恐…
话说,今年的超级英雄电影《神奇女侠》,可是让女主演盖尔加朵火了一波。
她长相坚毅又美,身材充满运动感,对粉丝也好,绝对是个理想爱豆~但是...万万没有想到,最近,有人在网上找到了一段离奇的色情视频,大致内容是……‘弟弟推倒姐姐’,而片中的女主角....乍看……这不就是加朵么!!!什么什么哎,等等等等,.....实际上,加朵本人估计都不知道这段视频的存在,她完全是被一个猥琐技术宅害惨了....有人用人工智能算法,把她的脸换成原片中色情女主角的脸.....坑爹啊....这几年来,在电影行业里,让视频中出现原本不存在的人,已经不算一个新鲜事儿。
在火遍全球的《速度与激情7》中,主演保罗·沃克在2013年11月因车祸逝世,当时电影还没有拍完,于是制作组找到保罗的弟弟,让他饰演保罗的角色,然后用CGI动作捕捉技术,加上保罗之前拍过但没使用的素材,把弟弟的脸变成保罗的脸,观众看电影时根本看不出来。
在电影《星球大战:侠盗一号》中,因为导演是死忠星战粉,他希望拍的电影能和之前的老星战片完全对得上,于是请了很多当年的老演员在《侠盗一号》中饰演之前演过的角色。
曾经在1977年星战片中饰演死星指挥官Moff Tarkin的是演员Peter Cushing,可他早在1994年就去世了。
然而,制作组就用CGI技术让他‘复活’了....这些效果都非常逼真,电影工作者们通过大量的资金、物力,和专家资源,将这两个人还原出来,以让电影观众获得更好的体
验。
然而,上面那段小片中的‘加朵’不同,制作出‘她’的人,根本
不是一个团队,也不是专家,只是一个对人工智能技术感兴趣的普通电
脑工程师,一个半吊子技术宅!此人是Reddit网友,ID为deepfakes,可能是平常撸普通小电影不过瘾,总想看女神,一个念头之下,他自己
决定动手制作专属女神的开车片。
据他说,他上网搜索了加朵成百上千
张的静态图片和大量油管视频,全部下载下来。
然后,找到一个很常见
的开源软件库TensorFlow,用它来进行感知方面的机器学习。
而他,就
让电脑同时学习色情片女主和加朵的脸.... 经过足够多的训练后,电脑能自动识别每个视频里的那些元素属于脸A,哪些属于脸B。
这样,就
可以将影片中原本女主的脸A,全部替换成加朵的脸B。
每当女主演转身,或低头时,电脑就会给她匹配上加朵类似的面部动作。
嗯....看女
神主演自己最爱的色情片,这可能是屌丝终极的梦想之一了。
不过,这
段视频不是没有瑕疵,当‘加朵’在说话的时候,她的嘴型不完全对得上,而且有几次视频中出现离奇的场面,比如床上的盒子突然跑到她的
脸上。
这些都是机器在学习中出现的小失误。
但对大部分网友来说,如
果只是看一小会儿,这段视频似乎有着很高的逼真度。
它似乎就是真的....如今,加朵不是唯一的受害者,他还制作过奥布瑞·普拉扎、斯
嘉丽·约翰逊、麦茜·威廉姆斯,和艾玛·沃森等女明星的仿制色情
片,这一个个的小片子的逼真度更高...总之....你们get到意思就好...为了广大人民群众的健康和我的眼睛,我还是不放图了...实际上,他只不过是Reddit上这样专门做明星假图假视频的近4万成员中的一员...
在这个奇葩小组里,全是知名女演员的仿制色情片,黛茜·雷德利、娜
塔莉·波特曼、艾莉尔·温特、艾丽·范宁、凯伦·吉兰.....而且,他们连歌手都不放过,霉霉、水果姐,两人的片子也是一前一后...女明星们看到真的是扬天狂吐三升血了!!有媒体目前已经就这个问题联系了其中几位女星的经纪公司,不过暂时还未得到回应。
然而,这个制作者本人倒是匿名接受了采访,他表示,并没有觉得自己触犯什么伦理问题,他觉得自己这么做‘挺聪明’:‘我觉得换脸这事儿挺聪明的...每一个技术都能被坏人利用,达到坏的目的,这是肯定不可能禁止的。
但我不认为让普通人参与进人工智能的研究是件坏事儿。
’但色情片演员Grace Evangeline的看法不同,她见过同行和自己的视频在网上被人免费盗载并传播,但从来没见过这种:‘这件事中我觉得最重要的是,你得得到对方的同意。
给明星制作假的性爱录像根本没有得到她们的同意,这么做就是错的。
’从业15年的前色情片演员Alia Janine也很反感这个:‘这感觉很恶心,这赤裸裸地显示了男人们觉得女人就是个可以被随意操控的物品,他们想怎么摆弄就怎么摆弄....他们根本不尊重原影片中的色情演员,更不尊重这些女明星。
’虽然很多人都对此感觉很糟糕,但要做到类似的色情片并不难,一个早已公开的方法,一个开源的软件库、网上到处都是的美女照片、一个消费级显卡,耗上几个小时就能做出大致效果。
如果有女人很爱拍自拍照,她的前男友或前夫完全可以把她的头安到色情片主演上,然后传播出去,以此来羞辱她,这种报复可是地狱级的,毕竟,就算说是假的,人们更愿意相信亲眼看到的....这个时代,是一个科技高度发达,但人们仍然倾向于相信肉眼的时代。
deepfakes的视频只是其中一丝皮毛,类似偷天换日的技术还有很
多很多....今年12月,以制作图形处理器闻名的英伟达公司在最近的神经信息处理系统大会上,发布了一款图像算法,它可以改变视频中的天气或时间。
它由两个系统构成的,一个是变分自动编码器(VAEs),另一个是生成对抗网络(GANs)。
两个系统相互对抗,一个努力欺骗,一个拼命找茬,彼此不断地进化,最终达到近乎完美的状态,做出几乎能以假乱真的虚假图片。
通过这个技术,算法可以将白天开车的视频自动变成黑夜的视频....连汽车上的反光都考虑到了....还可以将冬天的视频,自动变成夏天的,一棵凋零的树都变得郁郁葱葱....有了这个功能,做电影、电视剧的后期会很方便,但视频作假,也更容易了....不只是视频,声音也可以...2016年,Adobe公司推出一款叫VoCo的音频编辑软件。
只需要将一个人20分钟的录音输入软件,软件中的人工智能算法就可以通过分析声音数据进行学习,生成一个语音音素模型。
通过这个模型,用户只需要软件中打入文字,就可以让软件用那个人的声音,说任何话。
是的,任何话,而且听上去非常流畅,自然。
在演示大会上,Adobe的技术官Zeyu Jin让软件用喜剧演员Keegan-Michael Key 的声音,对在场的主持人Jordan Peele当众表白,还大胆出柜,说‘我亲了Jordan三次。
’把主持人吓得大喊‘巫术!(witch!)’。
在2016年,还有一项让人细思极恐的技术。
德国纽伦堡大学的教授Justus Thies带领团队,做了一个能实时进行面部转换的模型,叫Face2Face。
Face2Face的操作流程是这样的,使用者选择一个目标角色,比如川普,Face2Face会将他和川普的面部特征重构并追踪,当他做出一个面部表情时,比如大张嘴,模型会重新渲染川普的脸的形状和光影,并对背景进
行修改。
使用者做什么表情,目标角色就做什么表情,说任何话口型也都完全对得上,如果加上Adobe公司的假音频技术,这个仿冒目标人物说话的假视频将会是完美的....这个技术比网上那些半吊子之流做出来的要可怕的多,因为大部分类似软件都有很长的延迟性,而且图像经常出错,但Face2Face的准确性、真实性,和速度都非常高。
使用这个技术,伪造视频、口供,似乎完全是小菜一碟。
幸好Justus Thies本人也意识到它的危险性,表示考虑到可能造成的社会危害,不会将代码开源。
未来,这些类似的技术,怕是会越来越多....假音频、假视频、假图片,原本觉得完全可信的一切,将变得让人疑惑不已...怎么利用人工智能一场正道 VS 邪道的战争.. 可能才慢慢开始展开... Ref:
&feature=阿库_MiddleEarth:这种人真恶心IdealMember:技术所带来的便利性 VS 技术被滥用所带来的危害,恐怕不是那么好权衡的宋柔丶:有病。
还有这居然不算违法肖像权呢女明星+AV女优双重侵权吧陆璐_Louis:我第一想法是小姑娘们可以和偶像互动了!!自己就是女主角啊!纠结半天终于放弃的起名废:加上今天的sd直播的事感觉世界真可怕橙子不是唯一的水果_ss:当年我把自己的脸p到爱豆旁边假装合照都开心到不行-嚣问问:我想打死他敢侮辱我女神。