英文分词的算法和原理
- 格式:doc
- 大小:15.00 KB
- 文档页数:3
lac分词介绍摘要:一、LAC分词简介二、LAC分词原理与算法三、LAC分词在自然语言处理中的应用四、LAC分词的优缺点五、我国在LAC分词领域的研究与发展正文:一、LAC分词简介LAC(Linear Approximation to Context-Free Grammars)分词,即线性近似文法分词,是一种基于概率图模型的中文分词方法。
相较于传统的基于词典的分词方法,LAC分词具有更高的准确率和更强的鲁棒性。
二、LAC分词原理与算法LAC分词基于线性近似文法(Linear Approximation to Context-Free Grammars)模型,通过对上下文无关文法进行线性化处理,将分词问题转化为一个序列标注问题。
LAC分词算法主要包括两部分:1)基于条件随机场(CRF)的序列标注;2)基于统计机器学习(SMT)的解码算法。
三、LAC分词在自然语言处理中的应用LAC分词作为一种高效的分词方法,在自然语言处理领域具有广泛的应用,如文本分类、信息抽取、命名实体识别、情感分析等。
通过将原始文本切分成有意义的词汇单元,LAC分词为后续的自然语言处理任务提供了良好的基础。
四、LAC分词的优缺点优点:1.准确率高,能较好地处理歧义问题;2.鲁棒性较强,对噪声数据和不规范文本具有较好的容忍度;3.适用于大规模文本处理,计算效率较高。
缺点:1.需要大量的训练数据和标注数据;2.模型复杂度较高,不易理解和调整;3.有时会出现过拟合现象。
五、我国在LAC分词领域的研究与发展近年来,我国在LAC分词领域取得了显著的研究成果。
不仅在算法和技术上不断优化和创新,还针对中文语言特点开发了多种具有代表性的LAC分词工具,如清华大学的THULAC、北京大学的LCF和上海交通大学的SegInfer 等。
这些研究成果为我国自然语言处理领域的发展奠定了坚实基础。
综上所述,LAC分词作为一种先进的中文分词方法,在自然语言处理领域具有广泛的应用前景。
bpe text tokenizer -回复什么是[bpe text tokenizer]?BPE (Byte-Pair Encoding)文本分词器是一种用于处理自然语言文本的分词算法。
它是一种无监督的算法,用于将文本分割成具有固定长度的子词单元,以便更好地表示和处理词汇。
BPE文本分词是一种基于统计的方法,它通过逐步合并出现频率高的字符组合来构建词汇表。
这种方法最初是用于压缩算法,但后来被应用于自然语言处理任务中,取得了良好的效果。
BPE的核心思想是将文本中的字符组合成具有固定长度的子词单元。
首先,将文本中的字符切分成单个字符形成初始的词汇表。
然后,算法会计算词汇表中各个字符组合的出现频率,并将出现频率高的字符组合合并成一个新的字符。
这个合并的过程会反复进行,直到达到指定的词汇表大小或满足其他条件。
BPE文本分词器有以下几个重要的特点:1. 子词单元:BPE文本分词器能够将文本分割成更小的子词单元,这些子词单元可以更好地表示复杂的词汇。
例如,对于英文单词"unhappiness",BPE可以将其分割成"un"、"happy"和"ness"三个子词。
2. 上下文无关:BPE文本分词器是上下文无关的,即不依赖于单词在上下文中的位置。
这使得它能够处理未登录词(out-of-vocabulary)和词汇表中未包含的词。
3. 可逆性:BPE文本分词器是可逆的,即可以根据子词单元重构原始的文本。
这个特性对于一些任务,如机器翻译和语言生成等是非常有用的。
BPE文本分词器在自然语言处理任务中得到了广泛的应用。
它可以用于机器翻译、文本摘要、情感分析、命名实体识别等多个领域。
其优点包括能够处理未登录词,减少词汇表的大小,更好地表示复杂的词汇,以及对于少数据量的情况下的鲁棒性。
然而,BPE也存在一些缺点。
首先,由于它是基于统计的方法,因此无法处理特定的语法和语义信息。
英文分词方法python英文分词是将一段英文文本分解成单词的过程,常用于自然语言处理、文本分析等领域。
Python是一种流行的编程语言,也有很多工具和库可以用来进行英文分词。
以下是几种常用的方法:1. 使用NLTK库进行分词:NLTK(Natural Language Toolkit)是一个Python的自然语言处理库,内置了多种英文分词算法。
使用NLTK可以轻松进行分词,例如:```import nltknltk.download('punkt')from nltk.tokenize import word_tokenizetext = 'This is a sample sentence.'tokens = word_tokenize(text)print(tokens)```输出结果为:```['This', 'is', 'a', 'sample', 'sentence', '.']```2. 使用spaCy库进行分词:spaCy是另一个流行的自然语言处理库,其分词效果较好,速度也较快。
例如:```import spacynlp = spacy.load('en_core_web_sm')doc = nlp('This is a sample sentence.')tokens = [token.text for token in doc]print(tokens)```输出结果为:```['This', 'is', 'a', 'sample', 'sentence', '.']```3. 使用正则表达式进行分词:正则表达式也是一种常用的英文分词方法。
英语语法分词用法详解[英语语法详解:分词]第八章分词一.概念:分词分为现在分词和过去分词两种,是一种非谓语动词形式二.相关知识点精讲:1.现在分词的用法:1)做表语:Hewasveryamusing.Thatbookwasratherboring.很多动词的现在分词都可以作表语:exciting,interesting,encouraging,disappointing,confusing ,touching,puzzling.2)作定语:上面所出现的现在分词都可以用作定语,修饰一个名词:Thatmusthavebeenaterrifyingexperience.Ifoundhimacharmingperson.现在分词短语还可以放在名词的后面修饰名词,相当于一个定语从句:Thereareafewboysswimmingintheriver.Thereisacarwaitingoutside.3)作状语:现在分词短语可以表示一个同时发生的次要的或伴随的动作:FollowingTom,westartedtoclimbthemountain. Openingthedrawer,hetookoutabox. Takingakeyoutofhispocket,heopenedthedoor.现在分词短语还可以表示原因,相当于一个原因状语从句:Notknowingheraddress,wecouldn’tgetintouchwithher. Beingunemployed,hehasn’tgotmuchmoney.现在分词短语还可以表示时间,相当于一个时间状语从句:Hearingthenews,theyalljumpedwithjoy. Returninghome,hebegantodohishomework. Jimhurthisarmwhileplayingtennis.。
lac分词介绍摘要:C 分词的背景和意义C 分词的算法原理C 分词的应用领域C 分词的优缺点正文:一、LAC 分词的背景和意义随着互联网的普及和信息时代的到来,中文文本的处理和分析成为了越来越重要的课题。
在中文文本处理中,分词是一个非常关键的步骤。
为了更好地实现中文分词,研究者们提出了许多不同的分词算法。
其中,LAC 分词是一种基于词频的隐马尔可夫模型(HMM)的分词方法,它具有较高的准确性和效率。
二、LAC 分词的算法原理LAC 分词的全称是“Lexical Analysis of Chinese”,它是由清华大学计算机科学与技术系的研究者们提出的一种分词算法。
LAC 分词主要基于以下三个步骤:1.预处理:对文本进行预处理,包括去除标点符号、数字、英文等非中文字符,以及将文本转换为小写等操作。
2.词频统计:对预处理后的文本进行词频统计,得到词频分布表。
3.隐马尔可夫模型:利用词频分布表构建隐马尔可夫模型,通过最大似然估计或贝叶斯决策等方法对文本进行分词。
三、LAC 分词的应用领域LAC 分词算法在中文自然语言处理领域具有广泛的应用,包括:1.信息检索:通过LAC 分词,可以提高搜索引擎的准确性和效率。
2.文本挖掘:在文本挖掘领域,LAC 分词有助于提取关键词、主题分析等。
3.机器翻译:在机器翻译中,LAC 分词可以帮助识别源语言的词汇,从而提高翻译质量。
4.语音识别:在语音识别领域,LAC 分词可以辅助词图扫描,提高识别效果。
四、LAC 分词的优缺点LAC 分词算法具有以下优缺点:优点:1.准确性较高:基于词频统计和隐马尔可夫模型,LAC 分词具有较高的准确性。
2.效率较高:LAC 分词算法的计算复杂度较低,可以快速处理大量文本。
3.能够处理未登录词:LAC 分词能够识别和处理未登录的生僻词汇。
缺点:1.依赖词频统计:LAC 分词需要预先统计词频,对于大规模文本处理来说,词频统计需要耗费较多时间和资源。
bpe分词算法流程下载温馨提示:该文档是我店铺精心编制而成,希望大家下载以后,能够帮助大家解决实际的问题。
文档下载后可定制随意修改,请根据实际需要进行相应的调整和使用,谢谢!并且,本店铺为大家提供各种各样类型的实用资料,如教育随笔、日记赏析、句子摘抄、古诗大全、经典美文、话题作文、工作总结、词语解析、文案摘录、其他资料等等,如想了解不同资料格式和写法,敬请关注!Download tips: This document is carefully compiled by theeditor. I hope that after you download them,they can help yousolve practical problems. The document can be customized andmodified after downloading,please adjust and use it according toactual needs, thank you!In addition, our shop provides you with various types ofpractical materials,such as educational essays, diaryappreciation,sentence excerpts,ancient poems,classic articles,topic composition,work summary,word parsing,copy excerpts,other materials and so on,want to know different data formats andwriting methods,please pay attention!1. 准备训练数据。
收集大量的文本数据,这些数据将用于训练 BPE 模型。
分词和数据库匹配算法分词(Tokenization)是将文本或字符串分解成更小的单元,通常是单词或标记的过程。
在数据库匹配算法中,分词常常用于处理搜索、匹配和索引等操作,以提高数据库中文本数据的检索效率。
以下是一些与数据库匹配算法相关的常见分词和技术:1. 全文搜索引擎:全文搜索引擎是一种数据库匹配算法,它使用分词技术来创建索引,支持高效的文本搜索。
例如,MySQL 的全文搜索功能可以通过使用`MATCH AGAINST` 进行全文搜索。
```sqlSELECT * FROM articles WHERE MATCH (title, content) AGAINST ('search query' IN NATURAL LANGUAGE MODE);```2. n-gram 分词:n-gram 是一种将文本切分成包含n 个连续字符的片段的方法。
在数据库匹配中,n-gram 分词可用于模糊搜索和相似度匹配。
通过创建n-gram 索引,可以更有效地处理模糊查询。
3. 正则表达式:正则表达式可以用于在文本中识别和匹配模式。
在数据库中,正则表达式可以用于复杂的模式匹配和搜索操作。
```sqlSELECT * FROM users WHERE username REGEXP '^joh?n';```4. Levenshtein 距离:Levenshtein 距离是一种度量两个字符串之间差异的方法。
在数据库匹配中,可以使用Levenshtein 距离算法来进行模糊匹配,找到与给定字符串最接近的数据库条目。
```sqlSELECT * FROM words WHERE LEVENSHTEIN('search term', column_name) < 3;```5. 全文检索引擎(如Elasticsearch):对于大规模文本数据,专用的全文检索引擎如Elasticsearch可能更适合。
英文分词nlp英文分词(Natural Language Processing)是自然语言处理中的一个重要环节,是将一句英文语言按照一定的规则和方法划分成单词的过程。
英文分词是现代文本处理和数据挖掘中最基础的问题之一,它广泛应用于文本分类、文本搜索、信息检索、情感分析、机器翻译等领域。
英文分词的步骤如下:1. 文本清洗在进行分词前,需要进行文本清洗。
文本清洗是指对非英文字符、HTML标签、数字、连字符等进行清除或替换。
文本清洗可以使用正则表达式实现。
2. TokenizationTokenization是指将文本分割成单独的单词,即Token。
Tokenization是英文分词过程的核心步骤。
在Python中,可以使用NLTK library(自然语言工具包)和Spacy等库完成Tokenization。
3. Stop Word Removal在进行数据处理的时候,我们经常需要删除一些无用的单词,例如基本上没有语义信息、不影响文本表达的单词。
这些单词被称作Stop words(停用词)。
Stop words的集合可以根据具体问题的需求,进行定制化。
4. Stemming or Lemmatization在英文分词中,通常需要使用Stemming(词干还原)或Lemmatization(词形还原)来缩减单词的复数形式、时态等,使其归一化。
词干还原和词形还原的功能类似,但实现方式不同。
在Python 中,可以使用NLTK library和Spacy等库实现词干还原和词形还原。
5. Part-of-Speech (POS) TaggingPart-of-Speech (POS) Tagging是指对拆分后的单词打上词性标签,例如名词、动词、形容词等。
POS Tagging是自然语言处理中的一个重要任务。
在Python中,可以使用NLTK library和Spacy等库实现POS Tagging。
英文分词是自然语言处理中的一个基础环节,诸如文本分类、信息检索、情感分析等领域都需要用到分词技术。
英文分词技术英文分词技术是一种将英文语言中的单词进行分割的技术。
在英文中,单词之间是用空格隔开的,因此英文分词技术就是通过识别空格来将单词进行分割。
英文分词技术在自然语言处理、机器学习和人工智能等领域中都有广泛的应用。
英文分词技术的优势英文分词技术在英文语言处理中被广泛使用,它将单词进行了分割,可以帮助我们更好地处理语言。
英文分词技术的优势如下:1. 文本预处理:在进行机器学习或自然语言处理时,英文分词技术可以帮助我们对文本进行预处理,去除停用词和无意义的单词,从而提高处理效率和准确性。
2. 文本语义分析:英文分词技术可以帮助我们对文本进行语义分析,识别出不同单词之间的关系,从而更好地理解文本中的含义。
3. 机器翻译:英文分词技术可以在机器翻译中起到关键作用,将源语言的单词进行分割,从而更好地识别和翻译不同单词之间的关系。
4. 其他应用:英文分词技术还可以应用于搜索引擎、文本聚类、文本分类、情感分析等领域。
英文分词技术的挑战虽然英文分词技术在很多应用中都有广泛的应用,但是它也面临一些挑战。
英文分词技术的挑战如下:1. 歧义词:英文中有很多词语是有歧义的,比如“bank”,它可以表示银行,也可以表示岸边。
对于这些歧义词,英文分词技术需要进行特殊处理,才能达到正确的分词效果。
2. 复合词:英文中有很多复合词,比如“software engineer”,它是由“software”和“engineer”两个单词组成的。
对于这些复合词,英文分词技术需要进行特殊处理,才能保持正确的分词效果。
3. 专业术语:英文中有很多专业术语,比如化学、生物等领域的术语,它们往往不符合常规的分词规则。
对于这些专业术语,英文分词技术需要进行特殊处理,才能保持正确的分词效果。
结论英文分词技术在自然语言处理、机器学习和人工智能等领域中都有广泛的应用。
但是它也面临一些挑战,特别是对于歧义词、复合词和专业术语等方面的处理。
因此,在使用英文分词技术时,需要根据具体的应用场景进行特殊处理,以保持正确的分词效果。
bpe分词算法流程英文回答:Byte Pair Encoding (BPE) is a data compressionalgorithm that is often used for natural languageprocessing (NLP). It works by replacing sequences of characters with single byte pair tokens. This can reducethe size of the data while preserving most of the information.The BPE algorithm works as follows:1. Start with a list of all the characters in the data.2. Create a dictionary of all the possible byte pairs.3. For each byte pair in the dictionary, calculate the number of times it occurs in the data.4. Sort the byte pairs in decreasing order of frequency.5. Merge the most frequent byte pair into a single token.6. Update the dictionary to include the new token.7. Repeat steps 3-6 until the desired number of tokens has been created.The output of the BPE algorithm is a set of tokens that can be used to represent the original data. The tokens are typically much smaller than the original characters, which can lead to significant space savings.Here is an example of how BPE can be used to compress a text file:Original text:Hello world!BPE-compressed text:He<byte pair token>wo<byte pair token>ld!As you can see, the BPE-compressed text is about half the size of the original text.BPE is a powerful compression algorithm that can be used to reduce the size of NLP data. It is particularly effective for data that contains a lot of repeated sequences of characters.中文回答:BPE 分词算法流程:1. 将数据中的所有字符列成一个列表。
英语分词书写英语分词书写是英语语言学习的重要一部分,也是英语写作中的必备技能之一。
分词是指一个单词被拆成两部分,其一部分是词根,另一部分用来表示其是否为动词的过去分词形式或现在分词形式。
在英语写作中,分词有利于准确表达语义,让文章更通顺、流畅。
下面对英语分词书写的步骤进行详细阐述。
一、了解什么是分词首先,我们需要了解什么是分词。
分词是形容词动词存在的一种形式,它们用于表达动作状态或描述一个名词的属性。
分词可以分为两种:现在分词和过去分词。
现在分词通常以-ing结尾,例如:swimming、running等。
过去分词通常以-ed结尾,例如:played、washed等。
二、学会判断什么情况使用分词在写作中,我们需要根据语境判断什么情况下使用分词。
这里我们举一个实际的例子:Yesterday, I saw a boy crying on the street. (昨天我看到一个男孩在街上哭)这个句子中,crying就是一个现在分词,它用来描述boy的状态,说明这个男孩正在哭泣。
这样,我们就可以更准确地表达句子的含义。
三、注意分词的连用在英语写作中,分词也可以连用,这样可以更加突出文章的语义,但是需要注意使用的技巧。
在连用分词时,我们需要明确表达的含义,避免产生歧义。
举个例子:He walked into the room, smelling of smoke. (他走进房间,散发着烟味)在这个句子中,smelling of smoke是现在分词,用来描述He的状况,它和主句之间是有逻辑关联的,表示了He带着烟味走进了房间的情景。
四、练习分词的运用学习分词书写的最好方法就是多去练习,在写作中遇到分词相关的问题时,可以借鉴已有的例句,通过模仿、练习,慢慢地掌握分词书写的技巧。
总之,英语分词书写可以提高我们的写作技能和表达准确性,对于英语语言学习是非常重要的。
希望通过以上介绍,读者能够学好英语分词书写,并在写作中准确地运用。
英语分词的用法(一)英语分词的用法什么是英语分词?分词是将一个长句子分成短语或单词的方法。
英语分词是英语中一个重要的语法概念,通过将一个句子分成可管理的部分,可以使读者更好地理解长句子的含义。
分词的作用•更好地理解长句子的含义•帮助语言学习者发掘句子的语法和结构,提高阅读和写作能力•使句子更清晰,更易读,更容易理解分词的几种形式1.现在分词:通常以 -ing 结尾,可以被用作形容词,表示正在进行的动作。
例如:The running water sounds soothing.(流水的声音非常舒缓)2.过去分词:通常以 -ed 结尾,可以被用作形容词,表示已经发生的动作。
例如:The broken vase needs to be fixed.(破碎的花瓶需要被修好)3.原形复合词:由动词和副词或介词组成的短语,可以作为形容词或副词。
例如:The well-known actor arrived at the party.(著名的演员来参加派对了)4.不定式:以“to” 开始的动词短语,可以作为名词、形容词或副词。
例如:To study English every day is important.(每天学习英语很重要)分词的应用1.作形容词:分词可用于描述人、物、事物等形容词的用法。
例如:The excited children ran to the playground.(兴奋的孩子们跑到操场上)2.作副词:分词可用于描述动作发生的方式和情况。
例如:Heleft the office, slamming the door behind him.(他离开办公室,狠狠地关上了门)3.作补语:分词可用于补充说明主语或宾语的情况。
例如:Ibecame interested in English after studying abroad.(我在国外留学后对英语产生了兴趣)4.作主语:分词可用于作为句子的主语。
英语分词的用法范文英语分词是指将一个长句或长词分解成一个个较小的词或词组,以帮助深入理解句子的结构和词义。
分词可分为动词分词和名词分词两种形式,分别用作动词和名词。
1. 动词分词:动词分词一般由动词加上-ing结尾,如running、swimming。
动词分词在句子中可作主语、宾语、表语、定语、状语等,用于描述动作、状态、原因等。
例句:- Swimming is good for health.(分词作主语)- I enjoy running in the morning.(分词作宾语)- The book is interesting.(分词作表语)- The girl wearing a red dress is my sister.(分词作定语)- He hurt his leg while playing football.(分词作状语)2. 名词分词:名词分词一般由动词加上-ed结尾,如interested、excited。
名词分词在句子中可作定语、表语、主语、宾语等,用于描述情感、感受、状态等。
例句:- I am interested in the movie.(分词作定语)- She was excited about the news.(分词作表语)- The injured man was taken to the hospital.(分词作主语)- He found the lost key under the bed.(分词作宾语)分词用法的好处包括:-强调动作或状态的持续性和延续性;-简化句子结构,使句子更加简洁、流畅;-提供额外的信息,丰富句子意义和语境。
需要注意的是,分词有时会存在动名词和名词性从句等的搭配情况,需要根据具体语境进行正确理解和使用。
英语分词知识点总结大全
1. 分词的定义
分词是指在汉语中,将一个词语按照其内部构成划分为一个或多个单位的语言操作,也可以理解为将一个词语按照其内部构成拆分成若干部分的过程。
2. 分词的原则
分词的原则主要有两个,一是按照成分划分的原则,二是按照意群划分的原则。
按照成分划分的原则是指分词时要根据成分的实际语法功能和词义来进行划分,按照意群划分的原则是指分词时要根据语言运用中的表达需要来进行划分。
3. 分词的作用
分词在语言表达中具有重要的作用,它能够使语言表达更加具体、准确,增加语言表达的表现力,改变语言表达的语气、情感等。
同时,分词也可以帮助理解文章的意思,帮助把握文章的逻辑结构。
4. 分词的分类
分词根据其构词成分和词义特点可以分为实词和虚词两大类。
实词可以继续划分为名词、动词、形容词和副词等,而虚词可以划分为介词、连词、助词、语气词等。
5. 分词的基本规则
分词的基本规则主要包括单音节词、多音节词、复杂词和连续两个以上的相同的完整的词一起。
单音节词在划分时是一个明显的整体,不需分开;多音节词在划分时要根据词义和语法功能进行划分;复杂词在划分时要根据词族成员之间的关系进行划分;连续两个以上的相同的完整的词一起时说明是一个整体,一起进行划分。
6. 分词的判定
分词的判定主要是根据词义,是指要根据词语在句中的语法功能,根据词语的所属范畴,根据词语在具体语言环境中的特殊语法属性等来进行判断。
7. 分词的特殊规律
分词在实际语言运用中常常存在一些特殊的规律,比如规范分词规则、非规范分词规律、唯一分词规律等,这些规律在特定语境下对分词有着一定的指导意义。
英文分词的算法和原理
根据文档相关性计算公式
TF-IDF:http://lutaf.com/210.htm
BM25:http://lutaf.com/211.htm
分词质量对于基于词频的相关性计算是无比重要的
英文(西方语言)语言的基本单位就是单词,所以分词特别容易做,只需要3步:
l 根据空格/符号/段落 分隔,得到单词组
l 过滤,排除掉stop word
l 提取词干
第一步:按空格/符号分词
用正则表达式很容易
pattern = r'''(?x) # set flag to allow verbose regexps
([A-Z]\.)+ # abbreviations, e.g. U.S.A.
| \w+(-\w+)* # words with optional internal hyphens
| \$?\d+(\.\d+)?%? # currency and percentages, e.g. $12.40, 82%
| \.\.\. # ellipsis
| [][.,;"'?():-_`] # these are separate tokens
'''
re.findall(pattern,待分词文本)
第二步:排除stop word
stopword就是类似a/an/and/are/then 的这类高频词,高频词会对基于词频的算分
公式产生极大的干扰,所以需要过滤
第三步:提取词干
词干提取(Stemming) 这是西方语言特有的处理,比如说英文单词有 单数复数的
变形,-ing和-ed的变形,但是在计算相关性的时候,应该当做同一个单词。比
如 apple和apples,doing和done是同一个词,提取词干的目的就是要合并这些
变态
Stemming有3大主流算法
Porter Stemming
Lovins stemmer
Lancaster Stemming
Lucene 英文分词自带了3个stemming算法,分别是
EnglishMinimalStemmer
著名的 Porter Stemming
KStemmer
词干提取算法并不复杂,要么是一堆规则,要么用映射表,编程容易,但是必须
是这种语言的专家,了解构词法才行啊
http://text-processing.com/demo/stem/ 是一个在线试验词干提取算法的网站
Lemmatisation
Lemmatisation是和词干提取(Stemming) 齐名的一个语言学名词,中文可以叫做
词形还原 ,就是通过查询字典,把 "drove" 还原到 "drive"
而stemming会把单词变短,"apples","apple"处理之后都变成了 "appl"
wikipedia关于词形还原的简介
European languages lemmatizer 一个c语言的lib
做计算机语言学研究才会涉及到lemmatization,我个人觉得做搜索完全可以不考
虑,Stemming已经可以解决大问题了
参考
http://text-processing.com/
www.nltk.org python的自然语言包,非常有用
PYTHON自然语言处理中文版.pdf