文本复制检测技术综述
- 格式:doc
- 大小:26.50 KB
- 文档页数:6
高校职称评审代表作文字复制比检测的问题及对策收稿日期:2017-08-25基金项目:本文系巢湖学院科研启动基金项目“高校科研论文学术不端行为防范研究”(编号:KYQD-201304)和安徽省高校人文社会科学研究重点项目“高校科研管理中学术成果承载媒介认同研究”(编号:SK2017A0488)的阶段性成果作者简介:李瑛(1972-),女,安徽巢湖人,教师,主要从事高校管理和科研评价研究。
一、代表作文字复制比检测的基本情况职称评审代表作是作者参加职称评定(以下简称“职评”)提交的符合职称晋升要求、最能体现其学术水平的论文、著作等的学术作品。
长期以来,职评代表作及其他参评成果不同程度地存在着重复发表、过度引用、抄袭、剽窃、不当署名等学术不端问题,降低了其学术质量和学术声誉的可信度,识别、鉴定和剔除这类虚假成果因而成为代表作学术水平鉴定的重要前提。
2011年,浙江省、山东省率先在全国开展了职评学术论文文字复制比检测工作,此后,安徽省(2012年)、天津市(2013年)、新疆维吾尔自治区(2015年)等也陆续开展了此项工作。
目前,该工作已推广到除港澳台以外的全国各省、自治区和直辖市。
所有检测均统一使用中国知网“全国各省人事职评审论文管理系统”,具体由各地的教育厅(教委)专职机构、各高校图书馆或受委托高校图书馆、高校科技处等负责检测。
通过检测代表作及其他提交成果的复制文字量来计算复制率,进而初步判断该文是否存在学术不端行为。
6年来的检测实践表明,以文字复制比检测为基础的学术不端监审工作,发现了职评学术成果中的诸多学术不端现象,淘汰了一批不合格“成果”,有效地扼制了学术不端的蔓延势头,对高校学术腐败起到了一定的警示、威慑和惩戒作用,有力地净化了学术环境。
由于检测系统的技术方法、收录文献等缺陷,以及各地检测要求不一致、标准不统一,检测人员技术水平不高、经验不足,缺乏学科专家学术监审等原因,使得可检学术成果种类偏少、检测指标欠科学、检出率和检准率不够高、学术不端判断不够全面深入和准确等突出问题,需要在今后的工作中不断突破和完善,以提高检测成效。
基于OCR的印刷体汉字检测技术随着社会的发展,我们的生活越来越数字化,各种文字信息都以电子化的形式呈现在我们面前。
然而,随着数字信息的爆炸式增长,如何有效地处理和管理这些文字信息,成为了一个急需解决的难题。
在这个过程中,OCR技术的应用逐渐变得热门起来。
OCR(Optical Character Recognition)是一种光学字符识别技术,可以将印刷或手写的纸质文本转换为电子文本。
OCR技术的出现可以极大地提高效率,减少错误率,因此在业内得到了广泛的应用。
在汉字OCR技术中,汉字的识别是最为关键的环节,因为汉字是一种复杂的字符,每个字形都各有千秋,对于计算机来说,汉字的识别难度非常大。
然而,随着计算机技术的发展,现在已经出现了一些基于OCR的印刷体汉字检测技术,这些技术能够高效地识别印刷体汉字。
在OCR技术应用的过程中,我们可以将其分为四个步骤:图像预处理、特征提取、分类器构建以及结果输出。
首先,在图像预处理阶段,需要对原始图片进行处理,将其转换为灰度图像,并进行图像二值化处理。
这一步是非常重要的,因为它可以剔除掉一些噪声,保证后续步骤的准确性。
接下来,在特征提取阶段,需要从字符图像中提取出与该字符相关的特征信息。
常用的特征提取方法有基于区域的方法、基于轮廓的方法、基于模板的方法等。
这些方法共同点是都需要对字符字形特征进行分析,以提取出具有代表性的特征。
在分类器构建阶段,需要通过建立一个有效的字符识别模型来对汉字进行分类。
分类器是用来将字符特征转换为二进制码的,它可以是神经网络、支持向量机、模糊逻辑等模型,这些模型相互独立,优缺点也不同。
在选择分类器时,需要根据具体的应用场景进行选择。
最后,在结果输出阶段,将计算机识别的汉字输出为电子文本,可以进行传输、编辑和高速检索。
在这一阶段,一般需要针对识别错误的汉字进行校正,以提高识别的准确率。
虽然随着OCR技术的进步,其检测准确率已经得到了显著提升,但是汉字OCR技术仍面临着一些挑战,比如多字体、多尺寸、多角度、扭曲变形等问题。
文字检测常见算法在当代社会,文字检测算法被广泛应用于各种领域,如自然语言处理、信息安全、搜索引擎优化等。
文字检测算法的作用是检测给定文本中是否存在恶意、不当或违法的内容,并对其进行识别和处理。
本文将介绍常见的文字检测算法,探讨其原理和应用,并对其在相关领域中的意义进行分析。
首先,我们来介绍一种常见的文字检测算法——关键词匹配。
该算法通过事先设定一组关键词,然后在给定文本中搜索这些关键词的出现情况,从而判断文本是否包含不良内容。
例如,当我们需要检测一段文本是否含有辱骂词汇时,可以提前设定一个包含各种可能辱骂词汇的关键词列表,然后在文本中进行匹配。
这种算法的优点是实现简单,但缺点是容易被规避和误判。
其次,还有一种常见的文字检测算法是基于机器学习的方法。
这种方法将大量已标注的文本数据作为训练集,通过机器学习算法提取文本特征,并构建模型进行分类。
例如,可以使用支持向量机(SVM)、朴素贝叶斯(Naive Bayes)等算法进行分类。
这种算法的优点是可以自动学习和适应不同类型的文本,但也需要大量的标注数据和计算资源进行训练。
除了以上两种常见的文字检测算法,还有一些其他的算法被广泛应用于文字检测中。
如基于统计特征的方法,通过统计文本中的词频、长度、语法结构等特征,从而判断文本的性质。
还有基于深度学习的方法,通过构建深度神经网络模型,利用大规模的标注数据进行训练和预测。
这些算法各有优缺点,可以根据具体的应用场景选择合适的算法。
文字检测算法在各个领域中具有重要意义。
在自然语言处理领域,文字检测算法可以用于情感分析、文本分类等任务,帮助理解和处理大规模的文本数据。
在信息安全领域,文字检测算法可以用于检测和过滤含有病毒、恶意链接等威胁信息的文本。
在搜索引擎优化中,文字检测算法可以在搜索引擎的排名算法中起到重要作用,帮助筛选和过滤优质的内容。
总之,文字检测算法在当今社会的各个领域中发挥着重要的作用。
通过不断地研究和发展,我们可以不断改进算法的准确性和效率,提高文字检测的能力。
文本查重算法
文本查重算法主要用于检测文本的相似度或重复度,以下是几种常见的文本查重算法:
字符串匹配算法:这是最基本的文本相似度计算方法,主要通过将两个文本字符串进行逐个字符的比较,计算相同字符的数量占总字符数的比例来判断文本的相似度。
但是,这种方法对于大量文本的比对速度较慢,且只能检测出完全相同的文本。
哈希算法:哈希算法可以快速计算出文本的哈希值,然后通过比对哈希值来判断文本的相似度。
但是,哈希算法存在哈希冲突的问题,即不同的文本可能会产生相同的哈希值,从而导致误判。
N-gram算法:N-gram算法是一种基于文本分词的方法,将文本分成N个连续的词组,然后比对词组的相似度来判断文本的相似度。
N-gram算法可以识别出部分相似的文本,相对于字符串匹配算法和哈希算法,其检测精度更高。
向量空间模型算法:向量空间模型算法是一种基于文本向量化的方法,将文本转换成向量,然后计算向量之间的相似度来判断文本的相似度。
这种方法可以识别出语义相似的文本,相对于其他算法,其检测精度更高。
此外,还有一些其他的文本查重算法,如Jaccard相似度算法、MinHash算法、SimHash算法等。
这些算法各有优缺点,可
以根据具体的应用场景和需求选择合适的算法进行文本查重。
请注意,文本查重算法的选择和使用需要考虑到文本的长度、复杂度、语言特性等因素,以及算法的准确性、效率和可扩展性等因素。
在实际应用中,可能需要结合多种算法和技术来提高查重的准确性和效率。
检测复制粘贴的原理
检测复制粘贴的原理可以通过监控系统剪贴板的内容变化来实现。
当用户进行复制操作时,系统会将复制的文本或文件等数据保存到剪贴板中。
而粘贴操作时,系统会从剪贴板中读取数据并进行相应的粘贴操作。
为了检测复制粘贴操作,可以使用以下方法:
1. 监控剪贴板事件:通过监听系统的剪贴板事件,可以捕获剪贴板内容的变化。
当剪贴板内容发生变化时,可以获取到新的剪贴板内容,并进行进一步处理。
2. 比较剪贴板内容:可以将获取到的剪贴板内容与之前的剪贴板内容进行比较,判断是否发生了复制粘贴操作。
可以通过比较文本、文件路径、图片等方式来判断是否一致。
3. 设置标志位:可以设置一个标志位,当复制粘贴操作发生时,将标志位置为真,通过监测标志位的变化来检测复制粘贴操作。
需要注意的是,由于剪贴板是系统级的功能,可能需要使用操作系统提供的API 或者框架来实现剪贴板的监控。
不同的操作系统或平台有不同的实现方式。
具体可以参考相关文档或使用相应的编程语言和工具来实现。
关于知网学位论文检测系统的说明常见的修改方法总结:1.替换关键字2.打乱句子结构3.改写标红的句子4.不要删除标红的句子5.不要改变标红段落总字数6.关键字用同义替换一、本检测帮助您顺利通过学校检测感谢您使用知网的学位论文检测系统VIP版本检测自己的学位论文,本检测系统和学校一样,都是上传到知网的服务器检测,所以只要您给我的论文和给学校的一样(包括文件形式、目录大纲级别等),检测结果就一样。
二、检测报告解读1、首先看总-xx% 的截图文件(有些是直接下载所截图的网页,会命名为”xxx-文献分段浏览.htm l”,学位论文检测系统是整篇上传,如果没有这个文件肯定不是学位论文检测系统检测的。
(1)截图或者分段浏览上面有学术不端文献检测系统4.0(或TMLC)的标志,说明是用VIP版本检测的。
(2)上部左侧有文章及作者信息,还有总文字复制比和总重合字数。
大部分学校基本只看总文字复制比这个指标,具体要求各个学校不同,一般5%-30%。
(3)上部中间偏是参考文献字数,系统会自动识别文章末尾的参考文献,如能识别就会单独放在这里,不参与检测。
(4)截图下部是各段落的抄袭比例,系统会识别文章的大纲目录,如果能被正确识别就会按照章节进行分段,否则会自动分段。
(5)总文字复制比由各段落复制比加权平均得来。
2、然后看文本复制检测报告单,这个是系统自动导出的检测报告,并非手工拼凑。
(1)最上部是文章及作者信息,总复制比以及比对库范围等内容。
(2)然后是文章及段落抄袭率概要,此部分对应总截图文件。
(3)接着就是各段落的详细检测报告,包括被抄袭文献的信息,并且系统识别出来的抄袭的文字会被标红处理,您只要修改红字就可以了。
三、修改建议1、知网学位论文检测为整篇上传,格式对检测结果可能会造成影响,需要将最终交稿格式提交检测,将影响降到最小,此影响为几十字的小段可能检测不出。
对于3万字符以上文字较多的论文是可以忽略的。
2、上传论文后,系统会自动检测该论文的章节信息,如果有自动生成的目录信息,那么系统会将论文按章节分段检测,否则会自动分段检测。
英文综述查重全文共四篇示例,供读者参考第一篇示例:英文综述查重(英文原名:Plagiarism Checking in Literature Review)IntroductionIn academic writing, one of the most important aspects is originality and the proper use of references. Plagiarism, or the act of using someone else's work without proper attribution, is considered a serious offense in the academic world. This is especially true in literature reviews, where researchers are expected to synthesize existing knowledge in a field and provide their own analysis. In this article, we will discuss the importance of checking for plagiarism in literature reviews and highlight some methods and tools that can help researchers in this process.Methods of Plagiarism Checking第二篇示例:英文综述查重是在学术研究中非常重要的一个环节,它能够帮助研究人员确保其写作的原创性和独创性。
在撰写综述文章时,我们需要查重工具来检测文本的原创性,以避免意外的抄袭行为。
查重工具通常使用一种称为文本相似度的方法来检测文本之间的相似程度。
科管系统文本复制检测报告单(全文标明引文)去除引用文献复制比:46.4% 去除本人已发表文献复制比:单篇最大文字复制比: 指 标: 剽窃观点自我剽窃一稿多投 过度引用 整体剽窃重复发表剽窃文字表述 (注释: 无问题部分 文字复制比部分 引用部分)剽窃观点 (1)46.4% (2495) (1)诚信管理系统研究中心行政管理专业(本科)毕业论文(设计)题目: 浅谈渭南市潼关县食品药品监督管理工作专业层次: 行政本科级别: 11春学号: 1161101206450姓名: 周芷亦分校(工作站): 直属二分校指导教师: 王军福2013年 4 月 30日浅谈渭南市潼关县食品药品监督管理工作周芷亦(西安广播电视大学二分校11春行政本科,陕西省西安市710100)摘要:近年来各级食品药品监督管理部门在当地政府领导和有关部门配合下,坚持以监督为中心,严厉打击制售假劣药品的违法犯罪行为,坚持维护食品安全,取得了令人瞩目的成绩,但仍面临着诸多困难和问题。
本文分析了渭南市潼关县食品药品监督管理工作的现状,提出了药品食品监督管理机构仪器和人员配置不到位、不同部门和不同区域间缺乏沟通协作和经费缺乏等问题,并提出了一系列完善我国食品药品安全监管体制的措施,包括加大药品执法力度、提省药品监督局设备和人员配置;加快规范药品市场秩序;加强协调配合能力,完善各监管主体职责划分;加大执法资金投入,给执法人员配备良好的执法条件等。
关键词:潼关县;食品药品;监督管理;现状;问题;措施食品药品是特殊的行业,关乎百姓的健康与切身利益,其生产经营要靠市场的推动,更要靠完善的法律与严密的监管来保障。
提高食品药品安全的监督管理水平,是一个亟待解决的难题。
下面笔者以自己所从事的渭南市潼关县食品药品监督管理工作为例,就食品药品监督管理工作开展情况、存在的问题、及其改进的措施做一探讨。
一、渭南市潼关县食品药品监督管理工作开展情况(一)开展药品整治工作据了解,渭南市潼关县食品药品监督管理局主要检查药品的购进渠道、购进记录、购进票据以及是否存在使用假药、劣药和从非法渠道购进药品的行为。
文字检测算法模型摘要:一、文字检测算法简介二、文字检测算法模型的分类三、常见的文字检测算法模型四、文字检测算法模型的应用场景五、未来发展趋势与挑战正文:一、文字检测算法简介文字检测算法,顾名思义,是一种用于检测图像中是否存在文字以及识别出文字的具体内容的技术。
在计算机视觉领域,文字检测算法被广泛应用于手写体识别、印刷体识别,以及各种图像处理任务中。
通过运用深度学习、图像处理等技术,文字检测算法能够有效地识别出图像中的文字,并输出相应的文字信息。
二、文字检测算法模型的分类根据模型的结构和功能,文字检测算法模型主要分为以下几类:1.基于CNN(卷积神经网络)的文字检测模型:这类模型利用卷积神经网络的强大特征提取能力,对图像进行特征提取,然后通过全连接层输出检测结果。
典型的模型有:R-CNN、Fast R-CNN、Faster R-CNN 等。
2.基于RNN(循环神经网络)的文字检测模型:这类模型利用循环神经网络对图像中的文字进行序列建模,能够较好地处理任意形状的文字。
典型的模型有:CTC(Connectionist Temporal Classification)等。
3.基于Transformer 的文字检测模型:这类模型借鉴了自然语言处理领域的Transformer 模型,利用自注意力机制捕捉图像中文字的局部与长距离依赖关系。
典型的模型有:ViT(Vision Transformer)等。
三、常见的文字检测算法模型1.SSD(Single Shot MultiBox Detector):SSD 是一种单阶段网络,利用卷积神经网络对图像进行特征提取,并同时输出不同尺度的检测框和类别概率。
SSD 在文字检测任务中表现出较好的性能。
2.RetinaNet:RetinaNet 是一种目标检测算法,通过合并简单和困难样本,并使用Focal Loss 替代传统的交叉熵损失函数,使得检测结果具有更高的精确度。
在文字检测任务中,RetinaNet 同样具有较高的性能。
文本复制检测技术综述
摘要:针对文本复制抄袭现象,分析了文本复制检测技术的发展进展,研究了文本复制检测技术的分类,并对各种复制检测技术进行比较。
关键词:复制检测;字符串匹配;词频统计
中图分类号:tp391.1 文献标识码:a 文章编号:1674-7712 (2013) 04-0042-02
一、引言
如今,数字产品保护措施主要有两种:一种是通过对数据源加密,使用水印或者使用基于授权的方法等来防止用户的非法拷贝的“阻止法”。
另一种是通过建立一个注册文档集库,将给定文档与库中文档进行对比检测,并向用户展示检测结果,通过对抄袭者采用一定的惩罚措施,从而遏制抄袭现象。
从上世纪70年代开始,文档复制检测技术就已经出现,到了90年代,自然语言文本复制检测技术开始出现。
wordcheck软件诞生,其主要用于检测查询基金申请书是否有重复。
从那时起,自然语言文本复制检测技术开始迅猛发展,各种复制检测系统开始出现。
mander开发了一款名叫sift的检测工具,主要用于检测查询大规模文件系统。
该软件最早使用数字指纹技术来比较文档之间的相似度,数字指纹为论文复制检测技术提供了新思路。
brin等人用数字指纹技术开发了名为cops的检测软件,可以检测出重度复制和轻度复制,斯坦福大学“数字化图书馆”项目采用了该复制检测软件。
cops软件首次采用文档注册机制,后来的其他复制检测系统多采用该软件的系统架构[1]。
同年,shivakumar等采用相关频率模型(relative frequency model)开发了新的复制检测系统scam。
scam从信息检索技术中的向量空间模型(vector space model)得到启发,采用优化后的余弦法来计算文档相似度。
通过测试发现,scam性能要比cops好。
heintze借助于数字指纹技术开发了基于web的复制鉴别系统koala。
broder等使用“shingling”算法对大约150g字节的网络文档集合进行归类,取得满意结果。
针对latex格式文档,antonio 等建立了复制鉴别软件check。
该软件先将latex文档分解为树型结构,再利用向量点积法来比较文档相似度。
gonostori等采用具有较高识别精度的mdr(match detect reveal)方法来确定文档的重叠度。
mdr通过使用suffix tree结构来搜索字符串之间的最大公共子串,使用suffix vector结构来存储后缀树,以此提高鉴别效率。
finkel提出se(signature extraction)方法检测文档的重叠度。
该方法通过使用0 mod p的方法对文档指纹进行随机抽样,节省了一定存储指纹的空间,改善了算法的效率。
但是该方法存在一定的弊端,它适合于检测内容丰富的文档,对内容较少的文档检测效果比较差。
chowdhury等研究了大规模文档集合中重复文档的快速检测方法,该方法包括文本分块、选择、摘要、分选和对比等步骤,仿照sift的技术研发出了i-match系统。
i-match优点在于能够很有效的识别相似度很高的文档,提高了系统效率,其通过对
数据进行去除高频词和低频词等一系列的预处理来实现,缺点是对相似度较低的文档识别效果不佳。
schleimer等提出数字指纹winnowing算法来鉴别文档复制,并将其检测软件放置在服务网站moss上供用户使用[2]。
二、文档复制检测技术分类
根据检测方法的不同,将文档复制检测技术大致分为两大类,分别是基于字符串比较的方法和基于词频统计的方法。
(一)基于字符串匹配的方法
基于字符串匹配方法主要从文档中提取字符串,并将其作为文档检测的基本单位,然后将提取出来的字符串映射到散列表中,每个字符串都与一个数字相对应,最后统计两篇文档中相同的字符串占文本篇章的比率,通过相似度计算公式来计算出两篇文档之间的相似度,进而判别两篇文档间是否存在抄袭现象。
如今,很多文档复制检测系统都是使用基于字符串的匹配方法来实现的,如cops原型系统、moss原型系统、mdr原型系统等。
下面就对这几个典型的系统做简单的介绍。
cops原型系统要求每篇要注册到文档库中的文档都必须检测。
该系统以标点符号为界,首先将文档按照一个个句子划分,并通过哈希函数将句子转成相应的散列值,并通过同样的方式获得待检测文档中的句子散列值。
然后,通过将检测文档中的句子散列值和文档库中文档中的句子散列值对比,通过对比结果来判断注册文档的相似程度,从而度量注册文档是否为抄袭文档。
cops对文档间的重度
抄袭具有良好的检测效果,但是该系统对于轻度抄袭现象的检测效果不佳,并且不能准确的划分句子。
对于有效句子的提取是一个较大的难点,因为文档中一些术语、公式和单词的缩写等常使cops 对句子的界定造成误判。
基于数字指纹的winnowing算法,moss系统通过基于k-gram算法来将文档指纹提取出来,将所有长度为len的字符串提取出来作为文档的特征项,两个相邻的指纹间有len-1个相同的字符。
通过对文档间的指纹进行筛选后,获取文档的特征项,便可根据相似度公式计算文档的相似程度,并判断其是否存在剽窃行为。
k-gram虽然有对指纹进行筛选工作,但是依旧会产生大量的指纹,不但耗费大量存储空间并且需要巨大对比量来检测抄袭。
moss系统通过对k-gram算法的进一步改进,使用随机抽样的方法筛选文档中的指纹。
moss通过一个limen-len+l大小的滑动窗口提取文档指纹集,并且滑动窗口中都必须选取一个选取哈希码最小的那个指纹作为
文档的特征项。
当窗口中最小的指纹有多个时,选择最右边的那个指纹作为文档的特征项。
采用滑动窗口对指纹集的提取不仅保证了指纹的覆盖率并且保证了指纹的密度。
通过测试结果显示,该改进方法效果良好。
基于构建后缀树的mdr原型系统首先把被比较文档构造成一棵后缀树,然后运用匹配统计算法直接在被检测文档中寻找最大匹配字符串。
早起mdr的主要缺陷是不适合对大量文本进行检测,其原因是mdr的后缀树需要使用大量存储空间。
后来monostori对mdr原
型系统进行了改进,提出用后缀向量存储后缀树。
后缀向量也是一种存储方式,需要从后缀树导出有向无环图。
这种方式不保存边索引,只保存结点信息,从字符串中获取边标识。
这种改进方法节省了大量存储空间。
(二)基于词频统计的方法
该方法源自于信息检索技术,用一组拥有由独立词条的向量空间来表示一篇文档。
根据各个词在文档中出现的次数,采用点积法、余弦法等计算两个文档向量之间的相似度,从而判断两篇文档间是否存在拷贝现象。
scam改进了cops,主要用于发现知识产权冲突。
scam原型系在信息检索技术中的向量空间模型基础上做了改进,使用基于词频统计的方法来计算文档间的相似度。
系统首先对文档的词频进行统计,在向量空间模型的基础上,提出了相关频率模型rfm(relative frequency model),用来计算文档的相似度。
向量空间模型一般采用点积或者余弦公式来度量相似性,而相关频率模型则对余弦公式进行了改进,试图提高文档复制检测的精度。
此外,为加快查找比对效率,scam原型系统使用倒排序的索引结构来存储数据库中已有文档的文本块。
当有新文档需要检测时,就把新文档注册到数据库中,创建并保留该文档文本块的索引。
每个文本块的入口指向若干条记录,每一个记录都有两个属性:document(文档唯一标示符)和frequency(文本块在文档中出现的频率或次数)。
scam检测机制把文档转化成词袋的形式(bag of words),而没有考虑词与词
之间的搭配组合,对于同一个专业提交的学生作业来说,由于关键词大部分相同,因而误判率高。
check原型系统使用的是基于关键词统计的方法。
该软件的最大特点就是把待测文档结构信息引入到文档相似性度量中。
系统每剖析一篇待测文档,就将获得的结构特征插入注册数据库中。
按照要求,系统把一篇文档按照其章、节、段落等方式组织成一棵文档树,树的根结点就是整篇文档,其他结点是文档的一个片断。
各个子结点内容之和构成父节点。
系统运用信息检索技术中关键词提取的方法,根据词频提取整篇文档的关键词。
统计各个结点上出现的关键词及其在该结点上的频率比重,由此得出相应权重。
最后,按此方法构成的树就成为该文档的结构特征。
参考文献:
[1]史彦军,滕弘飞,金博.抄袭论文识别研究与进展[j].大连理工大学学报,2005,45(1):50-57.
[2]宋擒豹,杨向荣,沈钧义.数字商品非法复制的检测算法[j].计算机学报,2002,25(11):1206-1211.。